
- •В. И. Яненко
- •Учебное пособие Издание третье
- •Автор: в.И.Яненко
- •Введение
- •1 Характеристика измерения
- •2. Классификация измерений. Основные методы
- •Глава 1. Основы теории погрешностей
- •1.1 . Классификация погрешностей измерений
- •1.2. Систематические погрешности
- •1.3. Свойства случайных погрешностей
- •1.4. Постулат среднего арифметического /Гаусса/
- •1.5. Определение среднеквадратической ошибки при косвенных методах измерений
- •1.6. Среднеквадратическая ошибка среднего арифметического
- •1.7. Определение поля допуска ( неопределённость типа а)
- •Результат измерения необходимо записать в виде:
- •1.8 . Апостериорная неопределенность, энтропийная погрешность
- •Если погрешность с произвольным законом распределения имеет [1]
Результат измерения необходимо записать в виде:
x = 31,2 ± 0,3 (р= 0,95).
Определенное статистическими методами поле допуска в международной терминалогии получило название неопределенность типа А. По абсолютной погрешности определяют относительную погрешность измерения:
(6а)))
1.8 . Апостериорная неопределенность, энтропийная погрешность
Нормальный закон распределения погрешностей действителен, когда общая погрешность возникает в результате действия множества равновеликих и взаимонезависимых погрешностей. В реальных измерительных приборах число источников погрешностей ограничено и влияние их на результат измерения различно, поэтому законы распределения погрешностей в различных приборах весьма разнообразны. Это разнообразие и вызывает трудности в определении поля допуска, так как величина его зависит не только от среднеквадратической погрешности, но и от закона распределения плотности вероятности (рис. 1.1).
В настоящее время для оценки поля допуска применяется энтропийная погрешность [2], понятие о которой формулируется с помощью основных положений теории информации. Шеннон в своей работе [4] излагает основные положения этой теории. С точки зрения теории информации количество информации, получаемое в результате измерения, равно убыли неопределенности (энтропии) в знаниях о количественной характеристике
I = H (Хар) – Н (Хаs),
где H(Хар)-- априорная (доопытная) неопределенность,
Н(Хаs) -- апостериорная (остаточная) неопределенность после измерения.
Для
определения энтропии распределения
Н(х) используется формула
адля дискретных случайных величин
В зависимости от выбора основания логарифмов в приведенных выражениях, единицей измерения будет дит (десятичные); бит (двоичное), нит (натуральные). В измерительном приборе, имеющем диапазон измерений от Х1 до Х2 , вероятность получения отсчетов в пределах диапазона равна единице, а меньших Х1 и больших X2 равна 0. Если предположить, что плотность вероятности распределения различных значений измеряемой величины вдоль всей шкалы прибора одинакова, то с точки зрения теории информации наши знания о значении измеряемой величины до измерения (априорные) могут быть представлены графиком распределения плотности вероятности Р(Хар) (рис. 1.2). Так как полная вероятность получить отсчет в пределах от Х1 до X2 равна единице, то под кривой Р(Хар) должна быть заключена площадь, равная единице (условие нормировки), следовательно:
После
проведения измерений получаем показание
прибора Х0
0,
это означает,
что действительное значение измеряемой
величины Х лежит в пределах от (Х0
- 0)
до (Х0
+ 0).
В результате нашего измерения область
неопределенности сократилась до величины
20:
Плотность вероятности возросла при условии, что апостериорная плотность вероятности имеет вид равномерного закона.
С
(8)
Энтропия погрешности при равномерном законе распределения равна логарифму интервала неопределенности.
Нормальный закон не имеет четких границ поля допуска. Если погрешности распределены по нормальному закону, то остаточная неопределенность, оставшаяся после измерения, равна [1]:
Если сравнить погрешность по остаточной неопределенности при равномерном законе распределения и при нормальном, то можно выразить величину поля допуска через среднеквадратическую погрешность для нормального закона
(9)
2
= ,
2,07
.
Эффективный интервал неопределенности, вызываемый погрешностью с пологой кривой распределения, всегда можно заменить эквивалентным по количеству вносимой дезинформации (энтропии) интервалом с резко ограниченной полосой погрешностей.