Скачиваний:
50
Добавлен:
23.04.2022
Размер:
4.96 Mб
Скачать

Правильное диагностирование технического состояния объекта определяется состоянием объекта и средств диагностирования, характеристиками измерительного устройства и устройства сравнения (см. рис. 4.1). Возможная ошибка диагностирования зависит от ряда событий, которые по своей физической природе являются случайными. Следовательно, количественные характеристики показателей диагностирования должны быть представлены вероятностями состояний объекта и средств диагностирования и вероятностями принятия решений о техническом состоянии.

Вероятностные основы диагностирования базируются на обобщенной формуле Байеса, которая получается следующим образом. Если имеются технический диагноз Si и значение параметра Yj, полученного при этом диагнозе, то вероятность совместного появления событий (наличия у объекта состояния Si и значения параметра Yj ) определяется выражением

P (Si ,Yj )= P (Si )P (Yj | Si )= P (Yj )P (Si | Yj ).

Из этого равенства вытекает формула Байеса

P(Si | Yj )= P (Si )

P(Yj | Si )

.

(4.14)

 

 

P (Yj )

 

Отметим физический смысл параметров, входящих в эту формулу: P (Si) – вероятность технического диагноза Si, т. е. вероятность отнесения объекта к состоянию Si, определяемая по статистическим данным (априорная вероятность технического диагноза). Так, если предварительно обследовано N объектов и у Ni объектов имелось состояние Si , то

P (Si ) = Ni N .

P (Yj | Si ) вероятность появления значения параметра Yj у объектов с состоянием Si . Если среди Ni объектов, имеющих технический диагноз Si , у Nij наблюдалось значение параметра Yj, то

P(Yj | Si )= Nij Ni ,

где P (Yj) вероятность появления значений параметра Yj во всех объектах независимо от состояния (технического диагноза) объекта.

291

Пусть из общего числа N объектов значение параметра Yj было обнаружено у Nj объектов, тогда

P (Yj )= N j N .

Для установления технического диагноза специального вычисления P(Yj) не требуется. Как будет показано далее, значения P (Si) и P(Yj | Si ), известные для всех возможных состояний объекта, определяют величину P (Yj).

Левая часть равенства (4.14) характеризует вероятность технического диагноза Si после того, как станет известно, что значение контролируемого параметра объекта равно Yj (апостериорная вероятность технического диагноза).

Обобщенная формула Байеса. Эта формула относится к слу-

чаю, когда диагностирование осуществляется по совокупности параметров Y, включающей параметры Y1, Y2, ..., Yn . Каждый из параметров Yj имеет n значений (Yj1, Yj2, ..., Yjn ). В результате диагностирования становится известной реализация каждого параметра Yj = YjS и всей совокупности параметров Y (индекс «*» обозначает конкретное значение параметра). Формула Байеса для совокупности параметров имеет вид

P (Si | Y )= P (Si ) P (Y | Si )/ P (Y ),

(4.15)

где P(Si | Y ) вероятность технического диагноза Si после того, как стали известны результаты измерения параметров Y ; P (Si ) априорная вероятность технического диагноза Si (определяется по предшествующей статистике, т. е. по результатам предыдущего диагностирования).

Формула (4.15) относится к любому из n возможных состояний (технических диагнозов) объекта. Предполагается, что объект может находиться только в одном из указанных состояний, поэтому

n

P (Si )=1 .

i=1

Впрактических задачах нередко допускается возможность су-

ществования нескольких состояний А1, ..., Аn, причем некоторые из них могут встретиться в комбинации друг с другом. Тогда в ка-

292

честве различных технических диагнозов Si следует рассматривать

отдельные состояния

S1 = A1,

..., Sr = Ar

и

их

комбинации Sr+1 =

= A1^A2, ... и т. п.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Перейдем к определениюP (Y | Si ).

Если совокупность пара-

метров состоит из n наименований, то

 

 

 

 

 

 

 

 

 

 

 

 

 

P

(Y | S

)= P (Y*

| S

) P

(Y | Y S

) ... P (Y | Y ...Y

 

S

),

(4.16)

 

i

 

1

 

 

i

 

 

 

2

1 i

 

 

 

 

n

1

n−1

i

 

 

где Yj

j-е значение параметра объекта,

j =

 

. Для независимых

1, k

параметров

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P

(Y | S

)= P

(Y

| S

) P (Y

 

| S

) ... P

(Y | S

).

 

 

(4.17)

 

 

i

 

 

 

 

 

1

 

i

2

i

 

 

 

 

 

k

i

 

 

 

 

Вероятность появления совокупности параметров Y

в соот-

ветствии с формулой полной вероятности

 

 

 

 

 

 

 

 

 

 

 

 

 

P (Y )= n

P (Si ) P (Y | Si ).

 

 

 

 

 

 

(4.18)

 

 

 

 

 

 

 

 

 

 

i=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

В этом случае обобщенная формула Байеса может быть записа-

на так:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P (S

i

 

Y )=

 

 

P (Si ) P (Y | Si )

 

,

 

 

 

 

 

(4.19)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

P (Si ) P (Y | Si )

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i=1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

где P(Y | Si )

определяется равенством (4.16) или (4.17). Из соот-

ношения (4.19) следует:

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

n

P (Si | Y ) =1 ,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

i =1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

чего не должно быть, т. к. один из диагнозов обязательно реализуется, а реализация одновременно двух диагнозов невозможна.

Следует обратить внимание на то, что знаменатель формулы Байеса для всех технических диагнозов одинаков. Это позволяет определить сначала вероятности совместного появления i-го диагноза и данной реализации совокупности параметров

P (Si Y )= P (Si ) P (Y | Si ),

(4.20)

293

а затем апостериорную вероятность технического диагноза

P(Si | Y )= P (Si Y )/ n

P (Si Y ).

(4.21)

i=1

 

 

Если реализация некоторой совокупности параметров Y* является детерминирующей для технического диагноза Si , то эта совокупность не встречается при других диагнозах:

P (Y | Si )= 0

при

i j ;

 

≠ 0

при

i = j.

 

Тогда в силу равенства (4.19)

 

 

 

P (Si | Y )= 0

при

i j ;

(4.22)

1

при

i = j.

 

Таким образом, детерминированная логика установления технического диагноза является частным случаем вероятностной логики. Формула Байеса может использоваться и в том случае, когда часть параметров имеет дискретное распределение, а другая часть – непрерывное. Для непрерывного распределения используются плотности распределения. Однако в расчетном анализе указанное различие параметров несущественно, если задание непрерывной кривой плотности распределения осуществляется с помощью множества дискретных значений.

4.3. Информационные основы диагностирования

До проведения диагностирования объект характеризуется некоторой степенью неопределенности технического состояния. В процессе диагностирования этот объект выступает как источник информации. Действительно, если бы состояние объекта было известно заранее, то диагностирование потеряло бы всякий смысл, т. к. никакой новой информации о состоянии объекта в процессе диагностирования не было бы получено. Информация, полученная в результате диагностирования, позволяет оператору достаточно обоснованно оценить состояние объекта, т. е. принять одну из возможных гипотез о его действительном состоянии.

294

В теории информации неопределенность состояния объекта оценивают количественной мерой Н, получившей название энтропии. Понятие энтропии (от греч. entrope «обращение») распространилось на ряд областей знания. Энтропия в термодинамике характеризует вероятность теплового состояния вещества, его способность совершать работу, в математике степень неопределенности ситуации или задачи, в теории информации способность источника отдавать информацию.

4.3.1. Энтропия объекта с дискретным распределением состояний

Рассмотрим объект, имеющий n случайных состояний S1, S2,

..., Sn с вероятностями Р(S1), P(S2), ..., P(Sn). Если одно из состояний объекта обязательно реализуется, а два состояния одновременно невозможны (полная группа несовместных событий), то

n

P (Si )=1 .

i=1

Именно такие объекты в дальнейшем и рассматриваются. Степень неопределенности состояний объекта зависит от числа

n возможных состояний. Например, при бросании монеты их может быть только два, при бросании кубика шесть. Степень неопределенности состояния объекта возрастает с увеличением n. Однако не только число возможных состояний определяет энтропию объекта. Например, если объект имеет шесть возможных состояний

с вероятностями P(S1) = 0,95, P(S2) = P(S3) = P(S4) = P(S5) = P(S6) = = 0,01, то с большой достоверностью можно утверждать априори,

что он находится в состоянии S1, неопределенность состояния такого объекта невелика. Если же P(S1) = 1, а вероятности остальных состояний равны нулю, то объект вовсе не обладает неопределенно-

стью энтропия такого объекта равна нулю.

В теории информации энтропия степень неопределенности состояния объекта, имеющего n возможных состояний с вероятностями Р(S1), P(S2), ... , P(Sn), определяется выражением

n

 

H (S )= −P (Si )loga P (Si ).

(4.23)

i=1

295

Параметр Н(S), введенный Шенноном в 1948 г., называется в теории информации энтропией объекта. Обозначение Н(S) показывает, что энтропия относится к объекту S, его не следует понимать как обозначение функциональной зависимости. Логарифм в формуле (4.23) может быть взят при любом основании, изменение основания приводит только к появлению множителя перед знаком суммы, т. е. к изменению единицы измерения. Наименование этой единицы зависит от выбора основания логарифма при вычислении энтропии: при выборе основания а = 2 единица измерения информации – бит, при а = 10 – дит, при использовании натуральных логарифмов – нит.

Исходя из соображений физической наглядности, будем вычислять энтропию объекта с использованием двоичных логарифмов. Тогда

n

 

H (S ) = −P (Si )log2 P (Si ).

(4.24)

i=1

Целесообразность использования двоичных логарифмов легко понять, вычисляя энтропию объекта, имеющего два равновероятных состояния. В этом случае P(S1) = P(S2) = 0,5. По формуле (4.24) находим:

H (S )= −P(S1 )log2P (S1 )P (S2 )log2P (S2 )= = − 12 log2 12 12 log2 12 =1.

Таким образом, за единицу измерения энтропии при выборе двоичных логарифмов принимается степень неопределенности объекта, имеющего два возможных равновероятных состояния. Эта единица измерения называется двоичной единицей или битом.

Если принять при вычислении энтропии десятичные логарифмы, то в качестве единицы информации использовалась бы неопределенность объекта, имеющего десять равновероятных состояний, т. е.

10

10

1

 

1

 

 

H (S )= −P (Si )lg P (Si )= −

 

lg

 

 

=1дит.

10

10

i=1

i=1

 

 

i

 

296

Поскольку в двоичных логарифмах

10

10

 

1

 

1

 

 

H (S )= −P (Si )log2 P (Si )= −

 

log2

 

 

 

= 3,3 бит,

10

10

i=1

i=1

 

 

i

 

отсюда следует, что 1 дит = 3,3 бит, а 1 бит = 0,302 дит. Рассмотрим основные свойства энтропии.

1. Энтропия объекта есть величина вещественная и неотри-

цательная, т. к. 0 ≤ P (Si )≤ 1, то H (S )≥ 0 .

2. Энтропия объекта равна нулю в том крайнем случае, когда одно из возможных состояний Sn имеет вероятность P(Sn) =1, т. е.

H(S) = 0 при P(Sn) = 1.

 

(4.25)

Действительно, в формуле (4.24) слагаемое

P (Sn )log2 P (Sn )

равно нулю, т. к. P (Sn )= 1 . Другие слагаемые имеют неопределен-

ные значения типа 0 ∞ , но можно показать, что

lim

P (Si )log2

 

P (Si )0

 

P (Si )= 0. В справедливости этого равенства можно

убедиться

на следующем примере. Пусть P(Si) = 0,5 m, где

m − большое чис-

ло. Тогда

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

1

 

 

1

 

lim

P (Si )log2

P (Si )= lim

 

log2

 

 

 

= − lim

 

 

= 0 .

 

 

 

P (Si )0

 

m→∞

2m

 

2m

 

m→∞

2m

 

Условие (4.25) следует для рассматриваемого объекта также из физических соображений, т. к. при P(Sn) = 1 о состоянии объекта известно достоверно заранее, поэтому в объекте нет никакой неопределенности.

3. Энтропия объекта с одинаковыми вероятностями состояний максимальна и равна логарифму числа состояний. Действи-

тельно, пусть P(Si) = =1/n, тогда по формуле для энтропии объекта

(4.24) находим:

n

)log2 P (Si )=

n

1 log2

1

n

1 log2n = log2n . (4.26)

H (S) = P (Si

=

i=1

 

i=1

n

n

i=1

n

 

 

 

 

Пример 4.2. Пусть имеется объект с двумя возможными состояниями (бинарный объект). Вероятность первого состояния

297

равна Р, тогда вероятность второго состояния из условия

n

P (Si ) =1 равна 1 Р. Определим энтропию этого объекта

i=1

для следующих случаев:

а) состояния объектов равновероятны, т. е. Р1 = Р2 = 0,5; Р1 + Р2 = 1. Из формулы (4.24) получаем:

H (S )= −(0,5 log2 0,5 + 0,5 log2 0,5)= −[0,5(1)+ 0,5(1)]=1 бит;

б) неравновероятные состояния. Пусть Р1 = 0,9; Р2 = 0,1; Р1+Р2 = 1. Тогда

H(S )= −(0,9 log2 0,9 +0,1log2 0,1)=

=[0,9(0,1520)+ 0,1(3,3)]= 0,46бит;

 

 

 

 

 

 

в) детерминированные со-

 

 

 

 

 

 

 

 

 

 

 

 

стояния. Р1 = 1; Р2 = 0; Р1 + Р2 = 1:

 

 

 

 

 

 

H (S )= −(1log21+ 0 log2 0)=

 

 

 

 

 

 

 

 

 

 

 

 

 

 

= 0бит.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Изменение энтропии бинар-

 

 

 

 

 

 

ного объекта в зависимости от

 

 

 

 

 

 

 

 

 

 

 

 

вероятности P(Si)

показано

на

 

 

 

 

 

 

рис. 4.5, из

которого

видно,

 

 

 

 

 

 

 

 

 

 

 

 

что максимум Н(S) = 1 достига-

 

 

 

 

 

 

ется при Р1 = Р2 = 0,5, т.е. когда

 

 

 

 

 

 

 

 

 

 

 

 

состояния равновероятны. При

 

 

Рис. 4.5.

вероятностях

Р = 0

или

Р =

1,

 

 

что соответствует

полной

не-

Зависимость энтропии бинарного

возможности или полной досто-

 

объекта от вероятности

 

верности одного из состояний,

 

первого состояния

 

 

 

 

 

 

энтропия равна нулю.

 

 

4.3.2. Энтропия объекта с непрерывным распределением состояний

Если в качестве объекта рассматривать резистор, сопротивление которого принимает ряд случайных значений в интервале от а до b (непрерывное распределение состояний, рис. 4.6), то непрерыв-

298

ное распределение можно заменить дискретным. Для этого область изменения сопротивления резистора разбивается на n одинаковых интервалов R. Тогда энтропия объекта

H(S )= −P (Ri )log2 P (Ri ),

i=1n

где Р(Ri) вероятность сопротивления резистора в интервале со средним значением Ri. С учетом плотности распределения f (Ri )

P (Ri ) = f (Ri ) R

и

n

 

H (S ) = −f (Ri ) R log2 f (Ri ) R .

(4.27)

i=1

Раскрывая логарифм произведения, приведем последнее выражение к виду

n

H (S )= −f (Ri )log2 f (Ri ) R

i =1

n

– log2 Rf (Ri ) R .

i=1

Перейдя к пределу при n ∞ , найдем выражение для энтропии объекта с непрерывным распределением параметров:

f(R)

f(Ri)

0

R

 

a

R

R

 

Ri

 

 

b

 

Рис. 4.6. Схема для объекта с непрерывным распределением состояний

b

 

H (S )= −f (R)log2 f (R)dR log2 R .

(4.28)

a

При выводе формулы (4.28) учитывалось следующее, вытекающее из определения плотности вероятности условие

n

nlim→∞ i=1 f (Ri )

b

R = f (R)dR =1.

a

299

Принципиальной особенностью энтропии объекта с непрерывным распределением состояний является ее зависимость от шага квантования R. Выбор шага квантования обусловлен требуемой точностью при аппроксимации непрерывного распределения ступенчатым (дискретным), но само существование шага квантования связано с физической сущностью непрерывного процесса.

Величину log2 R в равенстве (4.28) можно рассматривать как

начало отсчета энтропии; для многих задач оно оказывается несущественным. В общем случае объект с непрерывным распределением состояний характеризуется параметром х, изменяющимся в пределах −∞ < x < ∞ , тогда

 

H (S )= − f (x)log2 f (x)dx log2 x .

(4.29)

-–∞

Последнее равенство можно записать через математическое ожидание Mx случайной величины

H (S )= М[log 2 f (x)]log 2 x .

(4.30)

f (x)

f (x)

 

0

x

x

0

a

x

b

x

 

а

 

 

 

 

б

 

Рис. 4.7. Объекты с непрерывным распределением состояний

300