Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Метрология Итоги Шпоры.docx
Скачиваний:
0
Добавлен:
01.05.2025
Размер:
740.91 Кб
Скачать
  1. Случайные погрешности. Вероятностное описание случайных погрешностей. Законы распределения случайных погрешностей. Энтропийное значение погрешности.

Случайной называют составляющую погрешности измерений, изменяющуюся случайным образом при повторных измерениях одной и той же величины. Они обнаруживаются при повторных измерениях одной и той же величины в виде некоторого разброса получаемых результатов. Случайная погрешность возникает при одновременном воздействии многих источников помех, каждый из которых сам по себе оказывает незаметное влияние на результат измерений, но суммарное воздействие всех источников может оказаться достаточно сильным. Случайная погрешность не может быть исключена из результата измерения, но может быть уменьшена путем статистической обработки результатов многократных (повторных) измерений.

Вероятностное описание случайных погрешностей: Вероятностной характеристикой дискретной, случайной величины является функция ее распределения, показывающая, с какой вероятностью случайная величина принимает те или иные числовые значения. В качестве вероятностной характеристики случайной величины используют понятие дифференциальной функции распределения, иначе называемой плотностью вероятности. Плотность вероятности р(х) есть предел отношения вероятности F(x) того, что возможные значения величины х находятся в интервале от х до х к длине интервала х, когда х стремится к нулю: р(х) = dF(x)/dx.

О на всегда неотрицательна и подчиняется условию нормирования в виде:

г де F(x) – интегральная функция распределения. Таким образом, вероятность попадания величины х в интервал [-; +] равна единице и представляет собой достоверное событие. Графики дифференциальной и соответствующей интегральной функций распределения приведены на рис. 1.

По форме кривой плотности вероятности р(х) можно судить о том, какие значения случайной величины х наиболее вероятны, а какие наименее.

Основные законы распределения: Равномерное распределение имеют погрешности: квантования в цифровых приборах, округления при расчетах, отсчета показаний стрелочного прибора, определения момента времени для каждого из концов временного интервала при измерении частоты и периода методом дискретного счета и, как правило, не исключенные систематические погрешности, возникающие при калибровке.

Трапецеидальное распределение образуется как композиция двух равномерных распределений шириной а1 и а2.

Треугольное (Симпсона) распределение – это частный случай трапецеидального, для которого размеры исходных, равномерных распределений одинаковы: а1 = а2.

Наибольшее распространение получил нормальный закон распределения, называемый часто распределением Гаусса. В практике геофизических исследований скважин нормальному закону распределений подчиняются погрешности результатов измерений, выполняемых сложной аппаратурой. Нормальный закон распределения характерен для акустических исследований, радиометрии скважин при больших скоростях счета, результаты измерений аппаратурой электрометрии подчиняются логарифмически нормальному распределению погрешностей.

Семейство распределений Стьюдента описывают плотность распределения вероятности среднего арифметического, вычисленного по выборке из n случайных отсчетов нормально распределенной генеральной совокупности. Распределения Стьюдента нашли широкое применение при статистической обработке результатов многократных измерений.

Энтропийное значение погрешности: смысл измерения состоит в сужении интервала неопределенности от значения, известного до его проведения, до величины d, называемой энтропийным интервалом неопределенности, ставшей известной после измерения. Энтропийный интервал определяется, по формуле d=2э=exp(Н(х/хд)), где э – энтропийное значение погрешности; – энтропия действительного значения х измеряемой величины вокруг полученного после измерения значения хд, т.е. энтропия погрешности измерений; р(х) – плотность распределения вероятности измеряемой величины.

Основное достоинство информационного подхода к описанию измерений состоит в том, что размер энтропийного интервала неопределенности может быть найден строго математически для любого закона распределения.