
- •5.. Метрология. Метод, принцип, средство измерения. Понятие точности и истинного значения.
- •6.. Методы измерений. Понятие меры.
- •7.. Виды и методы измерений
- •8.. Организация измерительного дела в стране. Эталоны. Система передачи единиц
- •14.. Понятия полосы погрешностей, реальной и номинальной характеристик средств измерений
- •15.. Абсолютная, относительная и приведенная погрешность си. Аддитивные и мультипликативные погрешности. Погрешности квантования.
- •16.. Методы нормирования погрешностей средств измерения.
- •18.. Расчет оценки статической погрешности результата измерения по паспортным данным используемого си.
- •3.4.2 Правила округления значений погрешности и результата измерения.
- •22.. Оценка динамических погрешностей при использовании аналоговых средств измерения
- •23.. Изменение погрешности си во время их эксплуатации.
- •24.. Методы вероятностного описания погрешностей средств и результатов измерений
- •28.. Вероятностные оценки ширины распределения. Предельная и квантильная оценка
- •29.. Достоверность определения доверительного значения погрешности по экспериментальным данным
- •30. Методы расчетного суммирования составляющих результирующей погрешности. Дисперсия
- •32. Практические правила расчетного суммирования составляющих результирующей погрешности и квантильного коэффициента.
- •33. Расчет погрешности результатов косвенных измерений.
- •35.. Методы уст ранения постоянных систематических погрешностей.
- •7.6. Частотные характеристики апериодического сигнала
- •44.. Методы обработки и оценки погрешностей при однофакторном эксперименте.
- •45.. Оценка коэффициента корреляции и погрешности исходных данных при однофакторном эксперименте.
- •47.. Расчет по экспериментальным данным параметров выбранной аппроксимирующей функции.
- •3 Группы для измерения температуры:
30. Методы расчетного суммирования составляющих результирующей погрешности. Дисперсия
МЕТОДЫ РАСЧЕТНОГО СУММИРОВАНИЯ СОСТАВЛЯЮЩИХ РЕЗУЛЬТИРУЮЩЕЙ ПОГРЕШНОСТИ
3-1. ОСНОВЫ ТЕОРИИ РАСЧЕТНОГО СУММИРОВАНИЯ ПОГРЕШНОСТЕЙ
Задача определения расчетным путем оценки результирующей погрешности по известным оценкам ее составляющих называется задачей суммирования погрешностей и возникает во многих случаях в практике измерений. Так, для определения погрешности даже отдельного прибора или измерительного преобразователя необходимо суммировать все составляющие его погрешности (основной, от колебаний температуры, от колебания напряжения питания и др.). При создании измерительных каналов ИИС и
ИВ К встает задача суммирования погрешностей нескольких измерительных преобразователей, образующих данный измерительный канал.
При определении погрешности как прямых, так и косвенных измерений к погрешностям используемых средств измерений должны быть добавлены методические погрешности, погрешности, появляющиеся при отсчете показаний, расшифровке осциллограмм, должен быть учтен иногда очень сложный механизм трансформации погрешностей каждого из результатов прямых измерений в результирующую погрешность результата косвенного измерения и т. д. Таким образом, задача расчетного суммирования погрешностей — это одна из основных задач как при создании средств измерений, так и при оценке погрешностей результатов самих измерений.
Трудность проведения такого суммирования заключается в том, что все составляющие погрешности должны рассматриваться как случайные величины, принимающие в каждой частной реализации самые разнообразные значения. С точки зрения теории вероятностей они могут быть наиболее полно описаны своими законами распределения, а их совместное действие — соответствую-ющим многомерным законом распределения. Однако в такой постановке задача суммирования погрешностей практически неразрешима уже для 3—4 составляющих (не говоря уже о 30—40), так как операции с такими многомерными законами непреодолимо сложны. Поэтому практический путь решения задачи суммирования состоит в том, чтобы вместо определения многомерных законов распределения подобрать для характеристики составляющих такие числовые оценки (например, среднее квадратическое или энтропийное значение, эксцесс, контрэксцесс, энтропийный коэффициент и т. д.), оперируя с которыми, можно было бы определить соответствующие числовые оценки результирующей погрешности без определения многомерных или результирующих одномерных законов распределения рассматриваемых случайных величин.
Правила суммирования погрешностей основываются на том предположении (ограничении), что погрешность по абсолютному значению всегда много меньше самой измеряемой величины. Поэтому, например, изменение погрешности в функции от изменения значений самой измеряемой величины может учитываться самым простейшим способом, а именно путем разделения всех
суммируемых составляющих погрешности на аддитивные и мультипликативные. Далее предполагается, что сумма аддитивных составляющих дает значение аддитивной части результирующей погрешности, а сумма мультипликативных составляющих — мультипликативной.
Практические правила расчетного суммировании составляющих результирующей погрешности.
Как следует из изложенного, для определения оценки результирующей погрешности должны учитываться взаимные корреляционные связи различных составляющих погрешности (принадлежащих часто различным узлам канала, различным стадиям процесса измерения и т. п.). Поэтому исходными данными для более точного расчета должны служить оценки именно всех отдельных составляющих погрешности, а не оценки некоторых суммарных погрешностей (отдельных преобразователей, суммарная методическая погрешность и т. к.).
Так как суммировать с учетом корреляционных связей можно лишь с. к. о. составляющих, то для каждой составляющей должно быть найдено по исходным данным ее с. к. о. В большинстве случаев для этого необходимо знание или предположение о виде закона распределения каждой из составляющих.
Эти'составляющие подразделяются на аддитивные и мультипликативные и суммируются раздельно.
Из суммируемых составляющих выделяются группы сильно коррелированных между собой составляющих погрешности, и внутри этих групп производится алгебраическое суммирование их оценок.
При этом следует заметить, что вычислить точные значения коэффициентов взаимной корреляции составляющих погрешности, как правило, чрезвычайно трудно. Поэтому по степени коррелированное™ погрешности следует разделять лишь на два вида —• сильно коррелированные (р = 1 -1-0,7) и слабо коррелированные (р = 0-^0,7). К первым относят погрешности, вызванные одной и той же причиной (общим источником питания, примерно одинаковыми изменениями температуры и т. д.), когда тесные корреляционные связи просматриваются логически и для них принимают р равным +1 или —1. Погрешности же, между которыми такие взаимосвязи не обнаруживаются, относят к некоррелированным, и для них принимают р = 0.
5. После того как все группы сильно коррелированных по грешностей выделены и внутри их произведено алгебраическое суммирование, суммарные по группам и оставшиеся вне групп погрешности можно считать уже некоррелированными и склады вать по правилу а| = ]FJaf.
Для определения с. к. о. при х = 0 складываются лишь аддитивные составляющие, а для определения с. к. о. погреш ности в конце диапазона измерений ■— все суммируемые составля ющие. *
В общем случае может быть сформулировано правило пренебрежения малыми составляющими при суммировании погрешностей. Так как дискретность округления окончательного результата (см. § 1-4) всегда больше 3%, то могут быть опущены: одна малая составляющая, если она в 5 раз меньше наибольшей из суммируемых составляющих, две составляющие, если они в 6 раз меньше, три составляющие, если они в 7 раз меньше, и четыре, если они в 8 раз меньше наибольшей. Но делать такое заключение можно только после суммирования коррелированных составляющих и приведенных числовых значений погрешности к одному виду, лучше всего к с. к. о.
Для перехода от с. к. о. погрешности к энтропийному Аэ = kas или доверительному Дд = ta% значениям должно быть тем или иным путем вынесено суждение о форме закона распределения результирующей погрешности и тем самым выбрано значение энтропийного коэффициента kz или квантильиого множителя
31. .Корреляционная связь. Коэффициент корреляции.
Корреля́ция — статистическая взаимосвязь двух или нескольких случайных величин (либо величин, которые можно с некоторой допустимой степенью точности считать таковыми). При этом, изменения одной или нескольких из этих величин приводят к систематическому изменению другой или других величин. Математической мерой корреляции двух случайных величин служит коэффициент корреляции.
Некоторые виды коэффициентов корреляции могут быть положительными или отрицательными (возможна также ситуация отсутствия статистической взаимосвязи — например, для независимых случайных величин). Если предполагается, что на значениях переменных задано отношение строгого порядка, то отрицательная корреляция — корреляция, при которой увеличение одной переменной связано с уменьшением другой переменной, при этом коэффициент корреляции может быть отрицательным; положительная корреляция в таких условиях — корреляция, при которой увеличение одной переменной связано с увеличением другой переменной, при этом коэффициент корреляции может быть положительным.
Коэффицие́нт корреля́ции или парный коэффицие́нт корреля́ции в теории вероятностей и статистике — это показатель характера взаимного стохастического влияния изменения двух случайных величин. Коэффициент корреляции обозначается латинской буквой R в математической статистике (r в статистике) и может принимать значения от −1 до +1. Если значение по модулю находится ближе к 1, то это означает наличие сильной связи, а если ближе к 0 — связь слабая или вообще отсутствует. При коэффициенте корреляции равном по модулю единице говорят о функциональной связи, то есть изменения двух величин можно описать математической функцией.
В различных прикладных отраслях (социологии, демографии, медицине, физике, химии, экономике и др.) приняты разные границы интервалов для оценки тесноты и значимости связи.