
- •Погрешность измерений. Классификация
- •1. По способу выражения их делят на абсолютные и относительные погрешности измерений.
- •2. По источнику возникновения погрешности измерений делят на инструментальные, методические и субъективные.
- •3. По характеру проявления разделяют систематические, случайные и грубые погрешности.
- •4.6. Обработка результатов прямых однократных измерений
- •4.7. Обработка результатов прямых многократных измерений
- •Государственная система обеспечения единства измерений
Виды и методы измерений
1. Виды измерений 2. Методы измерения 1. Виды измерений В зависимости от получения результата - непосредственно в процессе измерения или после измерения путем последующих расчетов - различают прямые, косвенные и совокупные измерения. Прямые измерения - измерения, при которых искомое значение физической величины определяется непосредственно из опытных данных. Например, определение значения протекающего тока в цепи при помощи амперметра. Косвенные измерения - измерения, при которых измеряется не сама физическая величина, а величина, функционально связанная с ней. Измеряемая величина определяется на основе прямых измерений величины, функционально связанной с измеряемой, с последующим расчетом на основе известной функциональной зависимости. Например, измерение мощности постоянного тока при помощи амперметра и вольтметра с последующим расчетом мощности по известной зависимости Р = V*I. Совокупные измерения - измерения нескольких однородных величин, на основании которых значения искомой величины находят путем решения системы уравнений. Сущность измерения физических величин измерительными приборами заключается в сравнении (сопоставлении) их с однородной физической величиной, принятой за единицу. И прежде, чем производить измерения, необходимо в зависимости от требуемой точности и от наличия измерительных приборов выбрать соответствующий метод измерения. 2. Методы измерений Метод измерения - совокупность приемов использования принципов и средств измерений. Измерения производятся одним из двух методов: методом непосредственной оценки или методом сравнения с мерой. Метод непосредственной оценки - метод, при котором значение искомой величины определяют непосредственно по отсчетному устройству измерительного прибора. Пример метода непосредственной оценки - измерение тока амперметром. Метод сравнения с мерой - метод измерения, при котором измеряемую искомую величину сравнивают с однородной величиной, воспроизводимой мерой. Метод сравнения с мерой имеет ряд разновидностей: - дифференциальный метод, - нулевой метод, - метод замещения и др. При дифференциальном методе на измерительный прибор воздействует разность между измеряемой и образцовой величинами, воспроизводимой мерой. Чем меньше разность, тем точнее результат. Предельным случаем дифференциального метода является нулевой метод, при котором разность доводится до нуля. При использовании метода замещения, измеряемая величина замещается известной величиной, воспроизводимой мерой. При этом замещение измеряемой величины производят так, что никаких измерений в схеме не происходит, то есть показания прибора будут одинаковы в обоих случаях
Общие сведения о системе СИ
Система СИ была принята XI Генеральной конференцией по мерам и весам, некоторые последующие конференции внесли в СИ ряд изменений.
Система СИ определяет семь основных и производные единицы измерения, а также набор приставок. Установлены стандартные сокращённые обозначения для единиц измерения и правила записи производных единиц.
В России действует ГОСТ 8.417-2002, предписывающий обязательное использование системы СИ. В нем перечислены единицы измерения, приведены их русские и международные названия и установлены правила их применения. По этим правилам в международных документах и на шкалах приборов допускается использовать только международные обозначения. Во внутренних документах и публикациях можно использовать либо международные либо русские обозначения (но не те и другие одновременно).
Основные единицы системы СИ: килограмм, метр, секунда, ампер, кельвин, моль и кандела. В рамках системы СИ считается, что эти единицы имеют независимую размерность, т. е. ни одна из основных единиц не может быть получена из других.
Производные единицы получаются из основных с помощью алгебраических действий, таких как умножение и деление. Некоторым из производных единиц в Системе СИ присвоены собственные названия.
Приставки можно использовать перед названиями единиц измерения; они означают, что единицу измерения нужно умножить или разделить на определенное целое число, степень числа 10. Например приставка «кило» означает умножение на 1000 (километр = 1000 метров). Приставки СИ называют также десятичными приставками.
История
Система СИ основана на метрической системе мер, которая была создана французскими учеными и впервые была широко внедрена после Великой Французской революции. До введения метрической системы, единицы измерения выбирались случайно и независимо друг от друга. Поэтому пересчет из одной единицы измерения в другую был сложным. К тому же в разных местах применялись разные единицы измерения, иногда с одинаковыми названиями. Метрическая система должна была стать удобной и единой системой мер и весов.
В 1799 г. были утверждены два эталона — для единицы измерения длины ( метр) и для единицы измерения веса ( килограмм).
В 1874 г. была введена система СГС, основанная на трех единицах измерения - сантиметр, грамм и секунда. Были также введены десятичные приставки от микро до мега.
В 1889 г. 1-ая Генеральная конференция по мерам и весам приняла систему мер, сходную с СГС, но основанную на метре, килограмме и секунде, т. к. эти единицы были признаны более удобными для практического использования.
В последующем были введены базовые единицы для измерения физических величин в области электричества и оптики.
В 1960 г. XI Генеральная конференция по мерам и весам приняла стандарт, который впервые получил название «Международная система единиц (СИ)».
В 1971 г. IV Генеральная конференция по мерам и весам внесла изменения в СИ, добавив, в частности, единицу измерения количества вещества ( моль).
В настоящее время система СИ принята в качестве законной системы единиц измерения большинством стран мира и почти всегда используется в области науки (даже в тех странах, которые не приняли СИ).
Величина |
Единица |
|||||||
Наименование |
Размерность |
Наименование |
Обозначение |
|
||||
русское |
французское/английское |
русское |
международное |
|
||||
Длина |
L |
метр |
mètre/metre |
м |
m |
|
||
Масса |
M |
килограмм[5] |
kilogramme/kilogram |
кг |
kg |
|
||
Время |
T |
секунда |
seconde/second |
с |
s |
|
||
Сила электрического тока |
I |
ампер |
ampère/ampere |
А |
A |
|
||
Термодинамическая температура |
Θ |
кельвин |
kelvin |
К |
K |
|
||
Количество вещества |
N |
моль |
mole |
моль |
mol |
|
||
Сила света |
J |
кандела |
candela |
кд |
cd |
|
Погрешность измерений. Классификация
Эффективность использования измерительной информации зависит от точности измерений — свойства, отражающего близость результатов измерений к истинным значениям измеренных величин. Точность измерений может быть большей или меньшей, в зависимости от выделенных ресурсов (затрат на средства измерений, проведение измерений, стабилизацию внешних условий и т. д.). Очевидно, что она должна быть оптимальной: достаточной для выполнения поставленной задачи, но не более, ибо дальнейшее повышение точности приведет к неоправданным финансовым затратам. Поэтому наряду с точностью часто употребляют понятие достоверность результатов измерений, под которой понимают то, что результаты измерений имеют точность, достаточную для решения поставленной задачи (погрешность измерений).
Классический подход к оцениванию точности измерений, впервые примененный великим математиком Карлом Гауссом и затем развитый многими поколениями математиков и метрологов, может быть представлен в виде следующей последовательности утверждений.
1. Целью измерения является нахождение истинного значения величины — значения, которое идеальным образом характеризовало бы в качественном и количественном отношении измеряемую величину. Однако истинное значение величины найти в принципе невозможно. Но не потому, что оно не существует — любая физическая величина, присущая конкретному объекту материального мира, имеет вполне определенный размер, отношение которого к единице является истинным значением этой величины. Это означает всего лишь непознаваемость истинного значения величины, в гносеологическом смысле являющегося аналогом абсолютной истины. Хорошим примером, подтверждающим это положение, являются фундаментальные физические константы (ФФК).
Они измеряются наиболее авторитетными научными лабораториями мира с наивысшей точностью, и затем результаты, полученные разными лабораториями, согласуются между собой. При этом согласованные значения ФФК устанавливают с таким количеством значащих цифр, чтобы при следующем уточнении изменение произошло в последней значащей цифре. Таким образом, истинные значения ФФК неизвестны, но каждое следующее уточнение приближает значение этой константы, принятое мировым сообществом, к ее истинному значению.
I la практике вместо истинного значения используют действительное значение величины — значение величины, полученное экспериментальным путем и настолько близкое к истинному значению, что в поставленной измерительной задаче может быть использовано вместо него.
2. Отклонение результата измерения X от истинного значения Хи (действительного значения Хд) величины называется погрешностью измерений
(2.1)
Вследствие
несовершенства применяемых методов и
средств измерений, нестабильности
условий измерений и других причин
результат каждого измерения отягощен
погрешностью. Но, так как Хи
и Хд неизвестны, погрешность
также
остается неизвестной. Она является
случайной величиной и поэтому в лучшем
случае может быть только оценена по
правилам математической статистики.
Это должно быть сделано обязательно,
поскольку результат измерения без
указания оценки его погрешности не
имеет практической ценности.
3.
Используя различные процедуры оценивания,
находят интервальную оценку погрешности
,
в виде которой чаще
всего выступают доверительные
границы —
,+
погрешности
измерений при
заданной вероятности Р. Под ними понимают
верхнюю и нижнюю границы интервала, в
котором с заданной вероятностью Р
находится погрешность
измерений
.
4. Из предыдущего факта следует, что
(2.2)
истинное значение измеряемой величины находится с вероятностью Р в интервале [X- ; Х + ]. Границы этого интервала называются доверительными границами результата измерений.
Таким образом, в результате измерения находят не истинное (или действительное) значение измеряемой величины, а оценку этого значения в виде границ интервала, в котором оно находится с заданной вероятностью.
Погрешности измерений могут быть классифицированы по различным признакам.