Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Петров И.К. Технологические измерения и приборы в пищевой промышленности учебник

.pdf
Скачиваний:
7
Добавлен:
25.10.2023
Размер:
18.47 Mб
Скачать

А б с о л ю т н а я п о г р е ш н о с т ь и з м е р е н и я — это по­ грешность, выражаемая в единицах измеряемой величины и оп­ ределяемая по формуле

Л* = л:изм — х >

(59)

где Хизм — значение, полученное при измерении; х— истинное значение измеряемой величины.

Но поскольку истинное значение измеряемой величины оста­ ется неизвестным, на практике можно найти лишь приближен­ ную оценку погрешности измерения. В качестве истинного зна­ чения измеряемой величины условно принимают значение, полу­ ченное с помощью эталона, а также с помощью метода или прибора более высокой точности, нежели применяемые при изме­ рениях.

О т н о с и т е л ь н а я п о г р е ш н о с т ь и з м е р е н и я — э т с

погрешность, определяемая

как отношение

абсолютной погреш­

ности измерения к истинному значению

измеряемой

величины

и выражаемая в процентах:

 

 

 

Ах = * и з м ~ * 100.

'

(60)

 

X

 

 

Погрешности измерений подразделяются на систематические,

случайные и грубые.

 

 

 

С и с т е м а т и ч е с к и е

п о г р е ш н о с т и — это

составляю­

щая погрешностей измерений, остающаяся постоянной или зако­ номерно изменяющаяся при повторных измерениях одной и той же величины. Систематические погрешности возникают при не­ соответствии действительного значения меры, с помощью кото­ рой производят измерение, ее номинальному значениюНапри­ мер, такие погрешности могут возникать при постепенном умень­ шении силы рабочего тока в цепи электроизмерительного потенциометра. К систематическим относятся также погрешно­ сти метода измерений, инструментальная погрешность, погреш­ ность отсчитывания, погрешность интерполяции и некоторые другие, выявляемые в результате многократных наблюдений. Систематические погрешности неизбежны, однако влияние их можно устранить или исключить путем введения соответствую­ щих поправок, тщательной регулировки, компенсации и т. п.

С л у ч а й н ы е п о г р е ш н о с т и — это составляющая погреш­ ностей измерений, изменяющаяся случайно при повторных изме­ рениях одной и той же величины. Возникают они вследствие вариации показывающего измерительного прибора, округления при отсчитывании показаний, влияния температуры окружающей среды и вибраций, наличия посторонних электромагнитных по­ лей и т. п. Д л я учета влияния случайных погрешностей одну и ту же величину измеряют много раз, а результаты измерений обра­ батывают с помощью специальных математических методов.

Г р у б ы е п о г р е ш н о с т и — это составляющая погрешно­ стей измерений, существенно превышающая ожидаемую при дан-

ных условиях погрешность. При обработке результатов они, как правило, отбрасываются и не учитываются.

Качество измерений оценивается не только наличием погреш­ ностей, но и точностью, правильностью, сходимостью и воспроиз­ водимостью измерений.

Т о ч н о с т ь и з м е р е н и й — это качество измерений, отра­ жающее близость их результатов к истинному значению измеря­ емой величины. Высокая точность измерений соответствует ма­ лым погрешностям всех видов как систематических, так и слу­ чайных. Количественно точность может быть выражена обратной величиной модуля относительной погрешности:

Таким

образом,

если

погрешность

измерений

составляет

10~2 %, точность равняется

104.

 

 

 

 

 

П р а в и л ь н о с т ь

и з м е р е н и й — это качество

измерений,

отражающее близость к

нулю систематических

погрешностей,

с х о д и м о с т ь

и з м е р е н и й

— близость

друг к

другу

резуль­

татов измерений,

выполняемых

в одинаковых условиях,

а в о с ­

п р о и з в о д и м о с т ь

и з м е р е н и й — близость

друг к

другу

результатов

измерений,

выполненных в

различных

условиях

(в разное время, в разных местах, разными методами и сред­ ствами).

Погрешности измерений в первую очередь зависят от погреш­ ностей средств измерений. Показания измерительных приборов или других средств измерений всегда в большей или меньшей степени отличаются от действительного значения измеряемой ве­ личины.

Разность между показанием прибора и истинным значением

измеряемой величины называется

а б с о л ю т н о й

п о г р е ш н о ­

с т ь ю измерительного прибора

(средства измерений). Она опре­

деляется по формуле

 

 

 

=

хп

— х,

(62)

где хп — показания прибора;

х— истинное значение измеряемой величины.

Всвязи с тем что истинное значение измеряемой величины остается неизвестным, на практике вместо него пользуются дей­ ствительным значением измеряемой величины, т. е. значением величины, определенной по отсчетномуустройству средства из­ мерений, принятого за эталон, и выраженной в принятых едини­ цах этой величины.

Отношение абсолютной погрешности измерительного прибо­

ра к истинному

значению измеряемой

им

величины называется

о т н о с и т е л ь н

о й п о г р е ш н о с т ь ю

и

выражается в долях

или процентах измеряемой величины. На практике абсолютную погрешность чаще всего относят к показанию измерительного прибора:

Х„ — X

Относительная погрешность используется иногда в качестве одной из характеристик точности средств измерений.

Величина, по абсолютному значению равная абсолютной по­ грешности измерительного прибора и противоположная ей по знаку, называется п о п р а в к о й . Дл я получения действительно­ го значения измеряемой величины поправку следует алгебраиче­

ски прибавить к показанию прибора.

Характеристика

т о ч н о с т и

большинства технических

средств измерений, т. е. качества,

отражающего близость их по­

грешностей к нулю, определяется пределами основной и допол­ нительных погрешностей.

О с н о в н о й п о г р е ш н о с т ь ю

называется погрешность

средства измерений,

используемого

в нормальных

условиях.

Нормальные условия

работы указываются в ГОСТах

или техни-.

ческих условиях на средства измерений.

Д о п о л н и т е л ь н о й п о г р е ш н о с т ь ю называется по­ грешность средства измерений, вызываемая воздействием на него внешних условий при отклонении их от нормативных (нормаль­ ных). К дополнительным относятся погрешности, возникающие в результате изменения температуры, отклонения прибора от его

рабочего положения

(перекоса), вибраций и т. п.

От величины допускаемых основных и дополнительных по­

грешностей зависит

к л а с с т о ч н о с т и средства измерений —

его обобщенная характеристика, определяемая пределами допу­ скаемых основных и дополнительных погрешностей, а также другими свойствами средств измерений, влияющими на точность, значение которой устанавливается в стандартах на отдельные виды средств измерений. Классы точности характеризуют свой­ ства средств измерений в отношении точности, но не являются непосредственным показателем точности измерений, выполнен­

ных с помощью этих средств. Классы точности,

присваиваемые

средствами измерений, выбираются

из ряда

следующих

чисел:

1 • 10"; 1,5- 10я;

2-10"; 2,5-10"; 4-10";

5-Ю";

6-Ю", г д е л = 1 ; 0 ;

— 1 ; —2 и т. д.

 

 

 

 

 

Качество средств измерений, помимо точности, характеризу­

ется их правильностью, а также сходимостью

показаний.

П р а ­

в и л ь н о с т ь

с р е д с т в а и з м е р е н и й — это

качественный

показатель, отражающий близость к нулю его систематических

погрешностей.

С х о д и м о с т ь

п о к а з а н и й

с р е д с т в а

и з ­

м е р е н и й — это качественный

показатель,

отражающий

бли­

зость к нулю его случайных погрешностей.

 

 

Повышение

точности результатов измерений является

одной

из важнейших задач измерительной техники. Однако в ряде слу­ чаев оно становится возможным лишь при использовании мето­ дов математической обработки измерительной информации

и применении средств вычислительной техники или других ки­ бернетических устройств. Использование математических мето­ дов позволяет резко повысить точность результатов измерений даже в тех случаях, когда в качестве источников информации применяются средства измерений, не обеспечивающие необходи­ мой точности в обычных условиях. Максимальная точность результатов измерений на основе информации, полученной в про­ цессе эксперимента, может быть достигнута путем использова­ ния при их обработке методов теории вероятностей и математи­ ческой статистики.

Одним из важнейших вопросов, связанных

с

повышением

точности результатов измерений, является оценка

влияния на

них случайных погрешностей. Большинство

встречающихся

в практике случайных величин, и в частности случайные погреш­

ности, подчиняются

н о р м а л ь н о м у з а к о н у

р а с п р е д е л е ­

н и я

(закону Гаусса),

который

характеризуется плотностью

вероятности вида:

 

 

 

 

 

 

/(*)

=

2 с т * .

(64)

 

 

 

oV2n

 

 

где

tn—математическое

ожидание измеряемой случайной

величины X;

 

о — среднее квадратическое отклонение величины X.

 

 

f(x)

 

 

f(xy

 

О

т

х

О

н

 

a

 

 

f

 

Рис. 11. Кривые нормального закона распределения.

При этом X — некоторая непрерывная

измеряемая случайная

величина, a xt

( / = 1 , 2,

л) — ее частные

реализации.

Графическое изображение

нормального закона

распределе­

ния приведено

на рис. 11, а. Кривая распределения

по этому за­

кону имеет симметричный холмообразный

вид. Точке х = т соот­

ветствует максимальная ордината кривой,

равная

; по

 

• *

о У 2л

мере удаления от точки т плотность распределения падает, а при

х -> +

оо кривая асимптотически приближается к оси абсцисс.

При

т = 0 максимум кривой наступает при л:==0

(рис. 11,6).

Кривая / соответствует самому большому, а кривая

3 — самому

малому значению сг.

 

3 И. К. Петров

33

 

Одна из наиболее распространенных задач обработки резуль­ татов измерений заключается в том, чтобы исходя из выборочной совокупности хи Х2, хп, состоящей из элементов, полученных непосредственно в процессе прямых последовательных повтор­ ных измерений, когда условия каждого повторного измерения остаются неизменными, получить оценку точности данного изме­ рения, точности каждого элемента выборки, полученного пря­ мыми измерениями.

Из теории вероятностей известно, что вместо случайной ве­ личины X вводится система случайных величин Хи Х2, Хп, математическое ожидание и дисперсия каждой из которых сов­ падают с математическим ожиданием и дисперсией исходной случайной величины X. Дисперсией называется математическое ожидание квадрата соответствующей центрированной случайной величины

 

D(X) =

M(h).

 

(65)

Если случайная величина распределена по нормальному за­

кону,

 

 

 

 

 

 

£ >(*)

= о-2.

 

(66)

Таким образом,

задача оценки

точности

измерений

сводится

к нахождению параметров т и а 2

случайной величины

X.

Математическим

ожиданием

случайной

величины X является

сумма всех возможных случайных значений случайной величины, умноженных на вероятности этих значений. Математическое ожидание дискретных и непрерывных величин вычисляется со­ ответственно по формулам:

 

 

 

 

п

 

 

 

 

т =

М(Х) =

£ xi рг,

 

 

(67)

 

 

 

- | -

i=i

 

 

 

 

 

 

оо

 

 

 

 

т = М(Х)=

J

xf{x)dx,

 

 

(68)

 

 

 

— оо

 

 

 

где Pi — вероятность события і

(p —

f(x)dx);

 

 

 

f (х)— плотность

распределения вероятности величины

X,

определяемой из

формулы

(64).

 

 

 

 

 

 

Дисперсия дискретных и непрерывных величин

определяется

соответственно по формулам:

л

 

 

 

 

 

 

 

 

 

 

 

 

o2 = D ( X ) =

£ {Xi mxY pi;

 

 

(69)

 

o 2 = D ( X ) =

j

(x — mx)2f(x)dx.

 

 

(70)

 

 

CO

 

 

 

 

 

Корень квадратный из дисперсии является

средним

квадра-

тическим или стандартным

отклонением (стандартом) а

случай­

ной величины X.

 

 

 

 

 

 

При оценке

точности прямых

равноточных1

измерений наи-

1 Измерения называются равноточными, если условия проведения каждого по­ вторного эксперимента сохраняются неизменными, и неравноточными, если эти условия изменяются.

более распространенной является постановка трех основных за­ дач. Решение их определяется вероятностью р попадания сред­ него значения п повторных измерений в є окрестности истинного значения т , т. е. в интервал от —є ) до ( m + є ) , где е— по­ ложительное число, определяющее заданный необходимый интер­ вал точности, называемый доверительным интервалом.

Постановка задач при подстановке t вместо переменной

0V2

может быть записана в следующем виде:

Yn

р = = Р { \ Х — т\ < е) = —г

е 2 Л = Ф(г), где г = Y-H±.

( 7 1 )

о

Считая, что о — величина заданная, с помощью указанного соотношения можно установить связь между величинами я, е и р.

Задача 1. При известном объеме выборки п и заданном необходимом ин­ тервале точности, выражаемом числом е > 0 , определить доверительную веро­ ятность р попадания среднего значения X данной выборки в указанный дове­ рительный интервал. По заданным значениям элементов выборки находится значение дисперсии а2 . Затем по известным значениям и, в и а определяется значение г, а по нему с помощью таблиц функции р — Ф(г) —искомое значе­ ние доверительной вероятности р.

Задача

2. При известном объеме выборки п

и заданной необходимой

до­

верительной

вероятности р определить границы

доверительного интервала

е,

т. е. интервала, в который среднее выборочное значение X попадает с заданной

вероятностью р. По таблицам функции р = Ф ( г )

определяется значение г,

со­

ответствующее заданной доверительной вероятности р, а затем необходимый доверительный интервал точности є по формуле

га

 

е = .

(72)

Vn

Задача 3. При заданных доверительном интервале е и доверительной ве­ роятности р определить значение п, т. е. установить, сколько раз необходимо повторить эксперимент, чтобы обеспечить попадание полученного среднего значения в заданный доверительный интервал с выбранной вероятностью. Оп­ ределяется величина г, соответствующая заданной доверительной вероятности р, а затем искомый объем выборки по формуле

22

о 2

 

« - - =

5 -

< 7 3

С помощью методов теории вероятностей и математической статистики производится обработка результатов прямых равно­ точных и неравноточных, а также косвенных измерений, измере­ ний нестационарных параметров и других видов получения изме­ рительной информации. Кроме того, может решаться задача по оценке погрешностей выходных сигналов измерительных систем в зависимости от погрешностей измерения отдельных измеряе­ мых величин и собственных свойств самой измерительной систе­ мы, а также ряд других важных задач, связанных с техноло-

3*

35

гическими измерениями. В настоящее время статистические ме­ тоды анализа и обработки результатов измерений приобретают все большее значение и выделяются в самостоятельные разделы измерительной техники и метрологии.

§ 6. НЕКОТОРЫЕ СВЕДЕНИЯ ИЗ ТЕОРИИ ИНФОРМАЦИИ

Рассмотренных в предыдущих параграфах способов количе­ ственной оценки степени достоверности измерений в ряде слу­ чаев оказывается недостаточно, особенно в связи с громадным увеличением потока измерительной информации и возрастанием ее роли во всех аспектах научной и производственной деятельно­ сти человека. Для описания и оценки контролируемых объектов требуются обобщенные информационные характеристики, позво­ ляющие распространить общие теоретические выводы и оценки на все области измерительной техники независимо от их специ­ фики. Разработка и применение единых критериев и методов для расчетов и оценки качества измерительных устройств и кана­ лов связи, сложных информационных и автоматизированных си­ стем управления стали возможными в результате использования идей теории информации.

Информационная теория измерений и измерительных уст­ ройств как новый раздел современной метрологии полностью со­ гласуется с ее прежними представлениями и является их логиче­ ским продолжением и развитием. В свете этой теории результаты измерений в процессе измерения и контроля рассматриваются как случайные события, а проводимые эксперименты по измере­ нию и контролю — как ситуации, в которых эти события могут проявляться.

Исходным понятием в теории информации является понятие энтропии, которая в применении к измерениям характеризует меру неопределенности исследуемой ситуации, т. е. процесса из­ мерения и контроля соответствующих параметров. Энтропия определяется числом возможных событий в заданной ситуации и вероятностями их появления.

Э н т р о п и е й с и с т е м ы называется сумма произведений вероятностей различных состояний системы на логарифмы этих вероятностей, взятая с обратным знаком. При этом рассматри­ вается некоторая физическая система X, которая может прини­

мать конечное множество состояний Х\, х2,

х„ с вероятностями

Ри Рг, - , Рп - Энтропия

 

 

Н(Х) =

- І Pi\ogp{,

(74)

где Pi = Р(Х ~ Х() — вероятность

того, что система

X примет состояние х<.

Здесь через

Р обозначается статистическая вероятность.

Энтропия Н(Х) обращается в нуль, если одно из состояний системы достоверно, а остальные невозможны. Другими слова-

ми, энтропия системы, состояние которой точно известно, обра­ щается в нуль. При заданном числе состояний, когда эти состоя­ ния равновероятны, она сводится к минимуму, а при увеличении числа этих состояний увеличивается.

Энтропия сложной системы, состоящей из нескольких простых систем, получается при их объединении. При этом энтропия сложной системы равна сумме произведений вероятностей всех возможных ее состояний на логарифмы, взятой с обратным зна­ ком, т. е.

 

 

п

т

 

 

H(X,Y)

= -

S

Е

Pi}\ogPti

(75)

.

 

 

1=1 / =

1

 

 

или

 

п

т

 

H[X,Y)=

Е

S ц(Рц).

(76)

Если объединяемые системы независимы, их энтропии скла­ дываются:

H(X,Y)

= H(X)

+ H(Y).

(77)

Если система составляется из зависимых друг от друга си­ стем, для их объединения вводится понятие условной энтропии, которая записывается в виде:

п

т

 

Н (X/Y) = - П

РЦ log Р Qfj/xt)

(78)

i=i

,=l

 

Величина условной энтропии Н(X/Y) характеризует степень неопределенности системы У, остающейся после того, как состо­ яние системы X полностью определилось.

В случае, если две системы X и У объединяются в одну, энтро­ пия объединенной системы равна энтропии одной из ее частей плюс условная энтропия второй части относительно первой:

H(X,Y)=H(X) + H(YJX). (79)

При объединении любого количества систем формула сложе­ ния их энтропии будет иметь следующий вид:

H(XltX2

Xt) =

H(Xl) + H(Xt/X1)

+

H(X,/X1,XJ+...+

 

+

H{X,/X1,Xt

Хз-і).

(80)

Из сказанного видно, что в результате

получения информа­

ции неопределенность

системы уменьшается. Чем больше объем

и содержательность информации, тем менее неопределенным бу­ дет состояние системы. Таким образом, очевидна целесообраз­ ность оценки количества информации измерением энтропии си­ стемы, состояние которой оценивается.

Количество информации, которая приобретается при полном выяснении состояния некоторой системы X, равно энтропии этой системы:

 

 

 

IX

=

H{X)

 

(81)

ИЛИ

 

 

 

 

 

 

 

 

 

 

 

 

л

 

 

 

 

/ х

=

2

Pi log Рь

"

(82)

ГАЄ pi=P(X

~ xt).

 

 

 

 

 

 

При

необходимости получения информации о

системе X пу­

тем наблюдения

за некоторой

другой

системой

У, связанной

с нею, количество

полной

взаимной информации,

содержащейся

в обеих системах, равно сумме энтропии составляющих систем

минус энтропия объединенной системы:

(

IY^^X

= H(X)

+ H(Y)-H(X,Y)

(83)

или

 

 

 

 

п

т

 

^ ~ * = £ 1 > < / 1 < * — .

(84)

где Р(/ = Р { ( Х ~ * / ) ( К ~ у / ) } ;

 

:

Pl=P(X~Xt);

 

 

 

г,=Р(У~у,).

 

 

 

Приведенные соотношения справедливы для дискретных слу­ чайных величин. Дл я физических систем, аналогичных непрерыв­ ным случайным величинам, энтропия имеет вид:

HAxW

= - J" f (х) log f(x)dx

log Ах,

(85)

 

CO

 

 

где Ax — степень точности определения состояния

системы.

 

Из рассмотрения последнего выражения видно, что от Ах зависит только второй его член (—logAjc), который при Ах -» О стремится к бесконечности, т. е. чем точнее необходимо знать состояние системы X, тем большая степень неопределенности должна быть устранена. Таким образом, задаваясь зоной нечув­ ствительности Ад: измерительных приборов, с помощью которых производятся измерения для определения состояния системы X, можно найти энтропию этой системы.

Для получения

выражения

условной энтропии

запишем ее

в виде математического ожидания функции:

 

 

-J-oo

 

 

HAxW

= - I

f(x)log{f(x)Ax)dx.

(86)

 

•—'ОО

 

 

Д ля двух взаимозависимых непрерывных систем X и У пол­ ная (средняя) условная энтропия будет иметь вид:

+°°

Н ^ У {Уїх) = - Я / (*•») 1 о § f (»/*)dx

dy - 1 о § АУ-

(87>

При объединении

в одну

систему двух зависимых систем X

и У энтропия

этой

системы

 

 

 

HbcbylX.Y)

= НАх

(X) +

Н А у / А х (Y/X).

(88)

При объединении

двух независимых систем энтропия

 

Hlxby

(X,Y)

~ # Д* (X) +HAy(Y).

(89)

Выражение

полной

взаимной

информации,

содержащейся

в непрерывных системах X и У, имеет вид, аналогичный виду для дискретных систем. В этом случае вероятности заменяются за­ конами распределения, а суммы — интегралами:

-J-oo

'

у - Н

^ ^ ^ І ^ ш ^ -

(90)

 

— о о

 

 

Отсюда следует, что полная взаимная информация

обраща­

ется в нуль, если

системы

X и У независимы.

 

С помощью полной (средней) условной энтропии может про­ изводиться оценка количества информации при воздействии по­ мех. Условная энтропия равна в этом случае количеству потери информации вследствие помех.

Использование информационных критериев дает возможность анализировать и оценивать вероятностными методами погреш­ ности измерений в статических и динамических режимах, каче- - ство многоканальных измерительных систем, надежность изме­

рительных устройств, решать задачи

по поиску

неисправности

в них, а также ряд других вопросов,

связанных

с восприятием,

преобразованием и выдачей измерительной информации приме­ нительно к измерительному устройству или системе любого вида.

Благодаря разработке основных положений теории информа­ ции стало возможным определение ряда характеристик, которые ранее не могли быть найдены.

1. Например, получила решение такая задача, как определе­

ние количества

информации, содержащейся

в величине У о ве­

личине X.

 

 

 

 

 

 

 

 

 

Величина X,

измеряемая

с ошибкой Z, распределяется по нор­

мальному закону с параметрами

тх =0 , ох . Ошибка Z

также

распределяется

по нормальному

закону с

параметрами

тг =

= О , 0 г . Ошибка

Z не зависит от измеряемой

величины X,

а ре­

зультат

измерения

характеризуется

случайной

величиной

вида

 

 

 

 

Y =

X

+

Z.

 

 

(91)

На

основании

формулы

(90)

информация

характеризуется

как математическое ожидание случайной величины:

 

 

 

 

/ - l o g

 

П Х '

У ) .

 

 

(92)

 

 

 

 

8

h(X)ft(Y)

 

 

К

Соседние файлы в папке книги из ГПНТБ