Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Метрология.rtf
Скачиваний:
0
Добавлен:
01.07.2025
Размер:
22.93 Mб
Скачать

Случайные погрешности (сп)

Случайная погрешность возникает при одновременном воздействии нескольких источников, каждый из которых в отдельности оказывает незначительное влияние на результат, однако, суммарное воздействие может оказаться достаточно большим. Каждый источник СП в данный момент времени ведет себя по-разному, без закономерностей и связей друг с другом, это и приводит к тому, что суммарное их действие проявляется в результатах измерений без закономерной связи с предыдущим и последующим.

При рассмотрении влияния случайных погрешностей на результат измерений основная задача заключается в изучении свойств совокупностей результатов отдельных наблюдений. Теория вероятности дает математические методы изучения свойств случайных событий в больших совокупностях.

У

F 1

F(x2)

0,5

F(x1)

x1 xц х2 х

р

x1 xц х2 х

ниверсальным способом описания случайных величин является отыскание их интегральных или дифференциальных функций распределения. Интегральной функцией распределения называют функцию F(x), определяющую вероятность того, что случайная величина xi в результате испытания (i-ом опыте) примет значение, меньшее x, т.е. F(x) = P(xi < x) = P( ¥ < xi £ x). Свойства функции: 1. Значения функции распределения принадлежат отрезку [0,1]. Это свойство следует из определения функции распределения как вероятности: вероятность всегда неотрицательное число, не превышающая 1.

2. Функция неубывающая, т.е. F(x2) >= F(x1), если х2 > х1. Следствие: Вероятность того, что случайная величина х примет значение, заключенное в интервале 1, х2) равна приращению функции распределения на этом интервале: Р(х1<= х < x2) = F(x2) - F(x1)

Более наглядным является описание свойств результатов измерений и СП с помощью дифференциальной функции распределения или плотности распределения вероятностей, которая является первой производной от функции распределения. р(х) = dF/dx. Свойства плотности распределения: 1. Плотность распределения неотрицательная функция (р(х) > 0) это следует из того, что функция распределения неубывающая, ее производная неотрицательна. График плотности распределения называют кривой распределения.

2. Несобственный интеграл от плотности распределения в пределах от  ¥ до + ¥ равен 1.

Док-во: несобственный интеграл выражает вероятность события, состоящего в том, что случайная величина примет значение, принадлежащее интервалу ( ¥ , + ¥). Очевидно, что такое событие достоверно. Геометрически это означает, что все площадь криволинейной трапеции, ограниченной осью ОХ и кривой распределения =1. В частности, если все возможные значения случайной величины принадлежат интервалу 1, х2), то =1.

По форме кривой плотности вероятности р(х) можно судить о том, какие значения случайной величины х наиболее вероятны, а какие менее.

Случайные величины (СВ) характеризуются следующими параметрами:

1. Центр распределения, его координата показывает положение СВ на числовой оси. Одним из способов его определения является нахождение медианы или 50% квантиля Хм на оси х, вероятность появления различных значений от которой слева и справа одинакова и равно 0,5 т.е.:

р(х)

х

П ри симметричной кривой р(х) в качестве центра может использоваться абсцисса моды, или максимума распределения Хм. Распределения с одним max. Называются одномодальными, с двумя  двухмодальными. Распределения у которых в средней части расположен не max a min, называют антимодальными. Существуют распределения у которых max отсутствует  равномерное.

Для ограниченных распределений (равномерного, трапецеидального) применяют оценку в виде центра размаха, где Х1 и Х2 первый и последний член вариационного ряда.

Для двухмодального распределения  в виде центра сгиба, где Хс1, Хс2 абсциссы точек, в которых распределение достигает max.

.

Можно определить центр распределения, как математическое ожидание, которое приближенно равно среднему значению случайной величины.

Математическим ожиданием непрерывной случайной величины Х все возможные значения которой принадлежат отрезку [a, b], называют определенный интеграл. Если возможные значения принадлежат всей оси ОХ.

.

2. Начальный и центральный моменты распределения.

Начальным моментом s-го порядка случайной величины Х называется математическое ожидание s-й степени этой величины.

т.е. первым начальным моментом является математическое ожидание, а нулевой начальный момент =1. Переход к моментам более высоких порядков позволяет учесть влияние на (M[x]) математическое ожидание того возможного значения, которое велико и имеет малую вероятность.

Центрированной СВ называют отклонение СВ от ее математического ожидания  . Моменты центрированной СВ называются центральными моментами, они аналогичны моментам относительно центра масс в механике. Центральным моментом порядка s СВ Х называется математическое ожидание s-й степени центрированной СВ.

  1. Энтропийное значение погрешности.

Измерение это процесс получения измерительной информации. Основная идея теории информации состоит в том, что с информацией можно почти обращаться также как с другими физическими величинами. С токи зрения теории информации случайная помеха (погрешность) будет являться дезинформацией. Вносимая помехой дезинформация будет определяться ее мощностью (СКО), видом закона распределения самой помехи. Дезинформирующее действие помехи, независимо от закона распределения, если помеха в вероятностном смысле не зависит от сигнала, определяется ее энтропией Н(х) т.е. мерой неопределенности измеряемой величины до ее измерения.

Количество информации J определяется как разность энтропий, где первое слагаемое энтропия измеряемой величины до ее измерения, а второе энропия действительного значения измеряемой величины х или мера интервала неопределенности вокруг полученного измерения показания хд, т. е. энтропия погрешности измерения.

И

р(х)

2D

0 х1 xд х2 х

змеряется величина х СИ прибором со шкалой от х1 до х2. Вероятность получить показания прибора в интервале от -¥ до х1 и от +¥ до х2 равна нулю, т.е. р(х)=0. Результат измерения с равной вероятностью может оказаться в интервале от х1 до х2. Тогда вероятностное описание

ситуации до измерения будет равномерным распределением х в интервале от х1 до х2. Т.е.

Энтропия  логарифмическая мера длины интервала неопределенности до измерения. Доверительное значение измеряемой величины лежит в пределах интервала неопределенности шириной d = 2D, где ± D - погрешность прибора (с равномерным распределением) или энтропийное значение погрешности d = 2Dэ = еН(х/хд) , d – энтропийный интервал неопределенности результата измерения. Смыслом измерения будет в сужение интервала неопределенности от (х2 - х1) до измерения до интервала d = 2D после измерения. Интервал неопределенности сократиться в N раз, это число показывает, сколько интервалов неопределенности укладывается во всем диапазоне, т.е. N  число градаций измеряемой величины. Энтропия результата измерения после получения показания хд:

Количество информации, полученное в результате измерения:

Н(х)  неопределенность до измерения; Н(х/хд)- неопределенность после измерения.

Для нормального распределения последнее отношение равно:

Вторая формула для распределения Симпсона.

Соотношение между Dэ и СКО различны для всех законов распределения, поэтому часто используется энтропийный коэффициент К = Dэ/s.