
- •А.М. Сафарбаков, А.В. Лукьянов, С.В. Пахомов
- •Тема 5. Методы и программы поиска места отказа…………………………….60
- •1.1. Основные понятия и определения технической диагностики
- •1.2. Показатели контролепригодности изделий АТ
- •Заключение
- •1.1. Основные понятия и определения технической диагностики
- •диагностики
- •План лекции
- •диагностики
- •План лекции
- •Тема 3. Статистические методы распознавания признаков
- •План лекции
- •План лекции
- •План лекции
- •Тема 5. Методы и программы поиска места отказа
- •План лекции
- •Тема 6. Физические методы контроля в технической диагностике
- •План лекции
- •Тема 6. Физические методы контроля в технической диагностике
- •План лекции
- •6.7.1. Средства контроля температуры
- •6.7.2. Бесконтактные методы термометрии
- •План лекции
- •7.1. Диагностика устройств контактной сети
- •План лекции
- •7.2. Диагностика опор контактной сети
- •7.3. Диагностика подвесной изоляции и цепей заземления
- •План лекции
- •План лекции
- •7.5. Диагностика токоведущих шин и контактных соединений
- •7.6. Диагностика выключателей переменного и постоянного тока
- •7.5. Диагностика токоведущих шин и контактных соединений
- •План лекции
- •7.7. Диагностика кабельных линий электропередач
- •7.7. Диагностика кабельных линий электропередач
- •План лекции
- •7.10. Диагностика параметров работы рельсовых цепей
- •План лекции
- •централизации
- •План лекции
- •7.15. Диагностирование радиосредств
- •7.16. Комплекс измерительных средств в системе транспорт
- •План лекции
- •8.2. Оценка точности контролируемых параметров
36
ЛЕКЦИЯ 4
РАЗДЕЛ 1. МАТЕМАТИЧЕСКИЕ МОДЕЛИ И МЕТОДЫ В ТЕОРИИ ТЕХНИЧЕСКОЙ ДИАГНОСТИКИ
Тема 3. Статистические методы распознавания признаков
План лекции
3.1.Метод Байеса
3.1.1.Основы метода
3.1.2.Диагностическая матрица
3.1.3.Решающее правило
3.2.Модели на основе методов статистических решений
3.2.1.Методы минимального риска, минимального числа ошибочных решений, наибольшего правдоподобия
3.3.Метод минимакса
3.4.Метод Неймана-Пирсона
3.5.Метод последовательного анализа
При наличии неопределенности принятия решения применяют специальные методы, учитывающие вероятностную природу событий. Они позволяют назначать границу поля допуска параметра или необходимое число опытов для принятия решения о диагностировании. Большая часть методов основана на том, что имеется некоторая доопытная вероятность в постановках диагностирования.
Так, большинство методов предполагают априорно известными вероятности диагностирования для однотипных объектов, находящихся в одинаковых условиях. Часто выбор того или иного решающего правила проводится на основе оптимизации по некоторым критериям. Статистические методы позволяют одновременно учитывать диагностические сигналы различной физической природы, так как они работают лишь с их вероятностными характеристиками.
Следует учитывать, что рассматриваемые методы принятия решений являются лишь инструментом, а окончательное решение, как и ответственность за его последствия, лежит на конкретном человеке.
3.1. Метод Байеса
Среди методов технической диагностики метод, основанный на обобщенной формуле Байеса, занимает особое место благодаря простоте и эффективности.
Имеет он и недостатки: большой объем предварительной информации, угнетение редко встречающихся диагнозов. Однако в случаях, когда объем статистических данных, позволяет применить метод Байеса, его целесообразно исполь-

37
зовать как один из наиболее эффективных и надежных методов.
3.1.1. Основы метода
Метод основан на простой формуле Байеса. Если имеется диагноз Di и простой признак kj, встречающийся при этом диагнозе, то вероятность совместного
появления событий (наличие у объекта состояния Di и признака kj) |
|
|||||||||||
P(D k |
|
) = P(D )P( |
k j |
|
|
) = P(k |
D |
) . |
(3.1) |
|||
j |
|
|
|
)P( i |
||||||||
i |
|
|
i |
|
Di |
|
i |
|
k j |
|
||
|
|
|
|
|
|
|
|
|
|
|||
Из этого равенства вытекает формула Байеса |
|
|
|
|||||||||
|
|
|
|
|
|
|
P(k j |
|
|
|
||
P(D k |
j |
) = P(D ) |
|
Di ) |
. |
|
(3.2) |
|||||
|
|
|
||||||||||
|
|
i |
|
i |
|
P(k j ) |
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
Очень важно определить точный смысл всех входящих в эту формулу величин. P(Di ) - вероятность диагноза Di, определяемая по статистическим данным
(априорная вероятность диагноза). Так, если предварительно обследовано N объектов и у Ni объектов имелось состояние Di, то
|
P(D ) = N i |
N |
. |
|
(3.3) |
||||||
P(k j |
|
|
i |
|
|
|
|
|
|
||
D ) вероятность появления признака kj у объектов с состоянием Di. Если |
|||||||||||
|
i |
|
|
|
|
|
|
|
|
|
|
среди Ni объектов, имеющих диагноз Di у Nij, проявился признак kj, то |
|||||||||||
|
P( |
k |
j |
D ) |
= |
Nij |
. |
(3.4) |
|||
|
|
Ni |
|||||||||
|
|
|
|
i |
|
|
|
|
|||
P(k j ) - вероятность появления признака kj |
во всех объектах независимо от со- |
||||||||||
стояния (диагноза) объекта. Пусть из общего числа N |
объектов признак kj был |
||||||||||
обнаружен у Nj объектов, тогда |
|
|
|
|
N j |
|
|
|
|||
|
P(k j ) = |
|
. |
|
(3.5) |
||||||
|
|
N |
|
||||||||
|
|
|
|
|
|
|
|
|
|||
|
Для установления диагноза специальное вычисление P(k j ) не требуется. |
||||||||||
Как будет ясно из дальнейшего, значения |
P(D ) , P(k j |
) , известные для всех |
|||||||||
|
|
|
|
|
|
|
|
|
i |
Di |
|
возможных состояний, определяют величину P(k j ). |
|||||||||||
|
|||||||||||
|
В равенстве (3.2) P(Di k j ) - вероятность диагноза Di после того, как стало |
известно наличие у рассматриваемого объекта признака kj (апостериорная вероятность диагноза).
Обобщенная формула Байеса. Эта формула относится к случаю, когда обследование проводится по комплексу признаков K, включающему признаки k1, k2, …kν. Каждый из признаков kj имеет mj разрядов (kj1, kj2, …kjs, …, kjmj). В результате обследования становится известной реализация признака k*j = k js и всего ком-
плекса признаков K*. Индекс * означает конкретное значение (реализацию признака). Формула Байеса имеет вид

38
P(D |
K*) = P(D )P(K* D ) P(K*) , i=1, 2, …, n, |
(3.6) |
|
i |
i |
i |
|
где P(Di K * ) - вероятность диагноза Di после того, как стали известны результаты обследования по комплексу признаков К; P(Di ) - предварительная вероят-
ность диагноза Di (по предшествующей статистике).
Формула 3.6 относится к любому из n возможных состояний (диагнозов) системы. Предполагается, что система находится только в одном из указанных состояний и потому
n |
|
∑P(Ds ) =1. |
(3.7) |
s=1
Впрактике нередко существуют несколько состояний A1, …Ar, причем некоторые могут встретиться в комбинации друг с другом. Тогда в качестве различных диагнозов Di следует рассматривать отдельные состояния D1=A1,…Dr=Ar и
их комбинации Dr+1=A1^A2, … и т.п.
Если комплекс признаков состоит из ν признаков, то
P(K * D ) = P(k* |
D )P(k* |
k* D )...P(k* |
k*...k* |
D ) , |
(3.8) |
||||
i |
1 |
i |
2 |
1 i |
ν |
1 |
ν |
−1 i |
|
где k*j = k js - разряд признака, выявившийся в результате обследования.
Для диагностически независимых признаков |
|
|
|
|
|
||||
P(K * D ) = P(k* |
D )P(k* |
D )...P(k |
* |
|
D ) . |
(3.9) |
|||
i |
1 |
i |
2 |
i |
ν |
|
i |
|
|
Вероятность появления комплекса признаков K* |
|
|
|
|
|||||
|
|
n |
|
|
|
|
|
|
|
P(K * ) = ∑P(Ds )P(K * Ds ) . |
|
|
(3.10) |
||||||
|
|
s =1 |
|
|
|
|
|
|
|
Обобщенная формула Байеса может быть записана |
|
|
|||||||
|
K * ) = |
P(D )P(K * |
D ) |
|
|
|
|||
P(D |
|
i |
i |
|
, |
|
(3.11) |
||
n |
|
|
|
|
|||||
i |
|
|
|
* Ds ) |
|
|
|
||
|
|
|
∑P(Ds )P(K |
|
|
|
s =1
где P(K *Di ) определяется равенством 3.8 и 3.9.
n
Из соотношения 3.11 вытекает ∑P(Di K *) =1, что, разумеется, и должно
i=1
быть, так как один из диагнозов обязательно реализуется, а реализация двух диагнозов невозможна.
3.1.2. Диагностическая матрица
Для определения вероятности диагнозов по методу Байеса необходимо составить диагностическую матрицу, которая формируется на основе предварительного статистического материала. В таблице содержатся вероятности разрядов признаков при различных диагнозах. Если признаки двухразрядные (да - нет), то в
таблице достаточно указать вероятность появления признака P(k j Di ) . Вероят-
ность отсутствия признака P(k j Di ) =1 − P(k j
Di ) .

39
В диагностическую матрицу включены априорные вероятности диагнозов.
Диагноз |
|
|
|
|
|
|
|
|
|
|
Признаки kj |
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
k1 |
|
|
|
|
|
|
|
k2 |
|
|
|
|
|
|
k3 |
|
|
|
|
||||
Di |
P(k |
11 |
D ) |
|
P(k |
12 |
D ) |
P(k |
21 |
D ) |
|
P(k |
22 |
D ) |
P(k |
31 |
D ) |
|
P(k |
32 |
D ) |
P(D ) |
||||
|
|
|
i |
|
|
|
i |
|
i |
|
|
i |
|
|
i |
|
|
|
i |
i |
||||||
|
|
|
|
|
|
|
|
|
|
|
|
0.2 |
|
|
|
|
|
|||||||||
D1 |
0.8 |
|
|
0.2 |
|
0.1 |
|
|
|
0.1 |
|
|
|
0.8 |
|
0.3 |
||||||||||
D2 |
0.1 |
|
|
0.7 |
|
|
0 |
|
|
|
0 |
|
0.1 |
|
|
0.9 |
|
0.1 |
||||||||
… |
… |
|
|
|
|
… |
|
|
|
… |
|
|
|
… |
|
|
… |
|
|
|
|
… |
|
|
… |
Поясним метод Байеса. Например, при наблюдении за трансформатором проверяются два признака: k1 - повышение температуры обмоток трансформатора и k2 - уровень шума, создаваемый трансформатором. Предположим, что появление этих признаков связано с неисправностью трансформатора. При нормальном состоянии трансформатора (состояние D3) признак k1 не наблюдается, а признак k2 наблюдается в 5% случаев. На основании статистических данных известно, что 80% трансформаторов вырабатывает ресурс в нормальном состоянии, 5% имеют состояние D1 и 15% - состояние D2. известно также, что признак k1 встречается при состоянии D1 в 20%, а при состоянии D2 в 40% случаев; признак k2 при состоянии D1 встречается в 30%, а при D2 в 50% случаев. Сведем данные в диагностическую таблицу.
Di |
P(k1 Di ) |
P(k2 Di ) |
P(Di ) |
D1 |
0.2 |
0.3 |
0.05 |
D2 |
0.4 |
0.5 |
0.15 |
D3 |
0.0 |
0.05 |
0.80 |
|
|
|
Вероятность состояния, когда обнаружены оба признака определяем по |
|||||||||||||||||
формуле (3.11), |
|
|
|
|
|
|
|
|
|
0,05 |
0.2 0,3 |
|
|
|
|
|||||
|
|
|
P(D1 / k1k2 ) = |
|
|
|
|
|
|
|
= 0.09. |
|
||||||||
|
|
|
0.05 0.2 |
0.3 + 0.15 0.4 0.5 + 0.8 0 0.05 |
|
|||||||||||||||
|
|
|
|
|
|
|
|
|
|
|||||||||||
|
|
|
|
|
|
|
P(D2 / k1k2 ) = 0.91 , |
P(D3 / k1k2 ) = 0 |
|
|
|
|||||||||
|
|
|
Признак k1 отсутствует, присутствует признак k2. Отсутствие признака k1 |
|||||||||||||||||
есть |
признак |
|
наличия |
|
|
|
|
|
|
|
|
|
||||||||
|
k1 |
(противоположное |
событие), |
причем |
||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
P(k1 / Di ) =1 − P(k1 / Di ) . |
|
|
|
|
|
|
|
|
|
|
P(k1 / Di ) заменяют на |
|||||||||
|
|
|
Для расчета также применяют формулу (3.11), но |
|||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
P(k1 / Di ) . |
|
|
|
|
|
|
|
|
|
0,05 |
0.8 0,3 |
|
|
|
|
|||||
|
|
|
Тогда P(D1 |
/ k1k2 ) = |
|
|
|
|
|
|
|
= 0.12 . |
|
|||||||
|
|
|
0.05 |
0.8 0.3 + 0.15 |
0.6 0.5 + 0.8 1 0.05 |
|
||||||||||||||
|
|
|
|
|
|
|
|
|
|
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
|
|
|
|
|
|
P(D2 / k1k2 ) = 0.46 ; |
P(D3 / k1k2 ) = 0.41 |
|
|
|
||||||||||
|
|
|
Когда отсутствуют оба признака, |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
40 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
0,05 |
0.8 0,7 |
|
|||||
P(D1 |
/ k1k2 ) = |
|
|
|
|
|
|
= 0.03. |
|||||||||||
0.05 |
0.8 0.7 |
+ 0.15 |
0.6 0.5 + 0.8 1 0.15 |
||||||||||||||||
|
|
|
|
|
|
|
|||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||
|
|
|
|
|
P(D2 / k1k2 ) = 0.05 |
P(D3 / k1k2 ) = 0.92 |
|
Из проведенных расчетов можно установить, что при наличии двух признаков в трансформаторе с вероятностью 0.91 имеется состояние D2, т.е. увеличение шума. При отсутствии обоих признаков наиболее вероятно нормальное состояние (вероятность 0.92).Во втором случае, так как вероятности примерно одинаковы, необходимо дополнительное исследование для уточнения состояния трансформатора.
3.1.3. Решающее правило
Правило, в соответствии с которым принимается решение о диагнозе. В методе Байеса объект с комплексом признаков К* относится к диагнозу с наибольшей (апостериорной) вероятностью.
K* D |
, если P(D / K * ) > P(D |
j |
/ K * ), (j=1,2,…n; i ≠ j ) |
i |
i |
|
Условие указывает, что объект, обладающий данной реализацией комплекса признаков К*, принадлежит диагнозу (состоянию) Di. Данное правило уточняется введением порогового значения для вероятности диагноза:
P(Di / K * ) ≥ Pi ,
где Рi заранее выбранный уровень распознавания для диагноза Di.
При этом вероятность ближайшего конкурирующего диагноза не выше 1- Рi. Обычно принимается Pi ≥ 0.9 . При условии P(Di / K * ) < Pi решение о диагнозе
не принимается (отказ от распознавания) и требуется поступление дополнительной информации.
3.2. Модели на основе методов статистических решений
Один из подходов к диагностированию заключается в использовании так называемых статистических решений. При этом решающее правило выбирает-
ся исходя из некоторых условий оптимальности, например, из условия минимального риска. Рассмотрим технологию распознавания при наличии одного диагностического параметра.
Пусть производится диагностирование трансформатора по выделению газа из масла (параметр k). Задача состоит в выборе значения k0 параметра k таким образом, что при k > k0 следует принимать решение о прекращении эксплуатации трансформатора, а при k < k0 - допускать дальнейшую эксплуатацию. Разделение производится на два класса: D1 - исправное состояние; D2 - наличие дефекта. Тогда указанное решающее правило означает:
при k < k0 ; k D1 ; при k > k0 ; k D2
Выделение газа неоднозначно характеризует состояние масляного трансформатора (масло имеет собственный запах, содержание газов не превышает допустимых пределов и т.д.). Плотность распределения k для дефектных и исправ-

41
ных трансформаторов показана на рисунке 8.
Области исправного (D1) и дефектного (D2) состояний пересекаются и поэтому принципиально невозможно выбрать значение k0, при котором не было бы ошибочных решений. Задача состоит в том, чтобы выбор k0 был в некотором смысле оптимальным, например, давал бы наименьшее число ошибочных решений.
Рис. 8. Распределение плотности диагностического параметра k для исправного D1 и дефектного D2 состояний
Возможными ошибками при принятии решений являются: ложная тревога (ошибка первого рода), когда исправный объект признается дефектным (вместо D1 считают, что имеет место D2), и пропуска дефекта (ошибка второго рода), когда объект, имеющий дефект признается исправным (вместо D2 признается D1).
Обозначим через Hij (ij = 1, 2) возможные ошибки, где i - соответствует индексу принятого диагноза, а j - индексу действительного состояния. Тогда H12 - это пропуск дефекта, а H21 - ложная тревога.
Вероятность ложной тревоги равна вероятности произведения двух событий: наличия исправного состояния и значения k > k0 для исправного состояния:
∞
P(H21) = P(D1) P(k > k0 / D1) = P1 ∫ f (k / D1)dk
x0
где P1 = P(D1) - априорная вероятность диагноза D1 (считается известной на основе предварительных статистических данных).
Вероятность пропуска дефекта определяется аналогично:
∞
P(H12 ) = P(D2 ) P(k > k0 / D2 ) = P2 ∫ f (k / D2 )dk
x0
Ошибочное решение слагается из вероятности ложной тревоги и вероятности пропуска дефекта. Если приписать цены этим ошибкам (C21 - стоимость ложной тревоги, а C12 - стоимость пропуска дефекта), то получим искомое общее выражение для вычисления среднего риска:

42
∞ |
x0 |
|
R =C21 P1 ∫ |
f (k / D1)dk + C12 P2 ∫ f (k / D2 )dk . |
(3.12) |
x0 |
−∞ |
|
3.2.1. Методы минимального риска, минимального числа ошибочных решений, наибольшего правдоподобия
Граничное условие k0 находится из условия минимального среднего риска. Дифференцируя (3.12) по k0 и приравнивая производную нулю, получим условие экстремума
dR / dk0 =C12 P2 f (k0 / D2 ) −C21 P1 f (k0 / D1) = 0, |
(3.13) |
тогда отношение правдоподобия будет иметь вид: |
|
[ f (k0 / D1)]/[ f (k0 / D2 )] = (C12 P2 ) /(C21 P1) . |
(3.14) |
Это условие часто определяет два значения k0, из которых одно соответствует минимуму, а второе - максимуму риска. Для существования минимума R в точке k = k0 вторая производная должна быть положительной, то есть
[ f ' (k |
0 |
/ D )] |
|
(C |
P ) |
|
|
||
|
1 |
|
< |
12 |
2 |
. |
(3.15) |
||
[ f ' (k |
0 |
/ D )] |
(C21 P1) |
||||||
|
|
|
|||||||
|
2 |
|
|
|
|
|
|
Для одномодальных распределений (содержащих не более одного максимума) при k1 < k0 < k2 условие (3.15) выполняется.
В соответствии с (3.14) правило решения по методу минимального риска имеет вид:
k D |
при |
f (k / D1) |
|
> |
C12 P2 |
, |
||
|
|
|
||||||
1 |
|
f (k / D2 ) |
|
|
C21 P1 |
|
|
|
|
|
|
|
|
|
|||
k D |
при |
f (k / D1) |
< |
C12 P2 |
. |
|||
|
|
|||||||
2 |
|
f (k / D2 ) |
|
|
C21 P1 |
|
|
|
|
|
|
|
|
|
Рассмотрим случай, когда параметр k имеет нормальное распределение при исправном D1 и неисправном D2 состояниях и σ1 = σ2 = σ. При этом плотности распределений будут иметь следующий стандартный вид:
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
(k−k |
)2 |
|
|
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|
−[ |
1 |
|
] |
|
|
||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2 |
|
|||||||||||||
|
|
f (k / D1) = σ 2π e |
|
2σ |
|
|
|
, |
|
|
||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|
−[ |
(k−k2 )2 |
||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
] |
|
|
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2σ |
2 |
|
|||||||||
|
|
f (k / D2 ) = σ 2π e |
|
|
|
|
. |
|
|
|||||||||||||||||||
|
|
|
|
|
|
|
|
|
||||||||||||||||||||
Подставив эти соотношения в (3.14), прологарифмировав и упростив полу- |
||||||||||||||||||||||||||||
чим: |
|
|
|
|
|
f (k0 / D1) |
|
|
|
C12 P2 |
|
|
|
|
|
|
|
|||||||||||
|
|
ln |
|
|
= ln |
. |
|
|
||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||
|
|
|
|
|
|
f (k |
0 |
/ D ) |
|
|
C |
21 |
P |
|
|
|
|
|
|
|
|
|||||||
|
|
|
|
|
|
|
|
|
2 |
|
|
|
|
|
1 |
|
|
|
|
|
|
|
|
|||||
Откуда получаем выражение для расчета k0: |
|
|
|
|
|
|
|
|
||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
σ 2 |
|
|
P |
|
|
|
|
|
|
C |
||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||
k |
0 |
= 0.5 (k |
− k |
2 |
) − |
|
|
|
|
|
|
(ln |
2 |
|
|
|
+ ln |
12 |
) . |
|||||||||
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||
|
1 |
|
|
|
|
k2 |
− k1 |
|
|
P1 |
|
|
|
|
|
|
C21 |
|||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|

43
При k < k0, принимается решение k D1 . При k > k0, принимается решение
k D2 .
Частным случаем рассмотренного метода является метод минимального числа ошибочных решений. Эти методы эквивалентны, если стоимости решений одинаковы. При данном методе для одномодальных распределений решение k D1 принимается при условии, что
f (k / D1) |
> |
P2 |
, |
|
f (k / D ) |
P |
|||
|
|
|||
2 |
|
1 |
|
а решение k D2 принимается при условии, что
f (k / D1) |
< |
P2 |
. |
f (k / D ) |
|
||
|
P |
||
2 |
|
1 |
|
Метод наибольшего правдоподобия также является частным случаем ме-
тода минимального риска. Правило решения имеет следующий вид:
принимается k D1, если f (k / D1) >1, f (k / D2 )
где k - значение диагностического параметра. Граничное значение находится из условия
f (k / D1) = f (k / D2 ) .
Сопоставляя уравнения (3.14) и (3.15) видно, что они совпадают, если допустить, что
(C12 −C22 ) P2 =1. (C21 −C11) P1
Примечание. При C22 = C11 = 0 допущение упрощается:
C12 P2 =1. C21 P1
3.3. Метод минимакса
Этот метод предназначен для ситуации, когда отсутствуют предварительные статистические сведения о вероятности диагнозов D1 и D2. Рассматривается «наихудший случай», то есть наименее благоприятные значения P1 и P2, приводящие к наибольшему значению (максимуму) риска.
Величина риска зависит от k0 и P1 (вероятность второго диагноза P2 = 1 - P1), в частности
x0 |
∞ |
R(k0 P1) =C11 P1 ∫ f (k0 / D1) dk + C21 P1 |
∫ f (k / D1) dk + |
−∞ |
x0 |
x0 |
∞ |
+ C12 (1 − P1) ∫ f (k0 / D2 ) dk + C22 (1 − P1) ∫ f (k / D2 ) dk . (3.16) |
|
−∞ |
x0 |

44
здесь C11 и C22 - стоимости правильных решений.
Для нахождения экстремума уравнение (3.16) преобразуют (приравнивают
частные производные по k0 и P1 к нулю). Условие dR/dk0 = 0 дает |
|
|||||||||
|
f (k0 / D1) |
= |
(C12 −C22 ) (1 − P1) |
. |
(3.17) |
|||||
|
|
|
||||||||
|
f (k |
0 |
/ D ) |
|
(C |
21 |
−C ) (1 − P ) |
|
||
|
|
2 |
|
|
11 |
2 |
|
|
||
Условие dR/dP1 = 0 дает |
|
|
|
|
|
|
|
|||
С21 ∫ f (k / D1)dk + C11 ∫ f (k / D1)dk = C12 ∫ f (k / D2 )dk + C22 ∫ f (k / D2 )dk . |
(3.18) |
Значения k0 и P1, являющиеся корнями уравнений (3.17) и (3.18), определяют экстремальную точку R(k0, P1). Для одномодальных распределений величина риска становится минимальной (то есть минимальной среди максимальных значений, вызванных «неблагоприятной» величиной P1). По методу минимакса выбирают величину k0 таким образом, чтобы при наименее благоприятных значениях P1 потери, связанные с ошибочным решением, были минимальными.
Опуская процедуры точного решения уравнений (3.17) и (3.18) (например, с помощью метода Ньютона) представим приближенные решения. Так, в первом
приближении можно принять, что k0 = k1 − k2 2 . Тогда из (3.17) находим наиме-
нее благоприятное значение вероятности исправного P*1 и неисправного P*2 состояний:
P* = |
|
|
C12 −C22 |
, |
|
|
|
||
1 |
[(C12 |
−C21) + (C21 |
−C11)] F(k0 / D1) F(k0 / D2 ) |
|
|
|
|||
|
|
P* =1 − P* . |
|
|
|
|
2 |
1 |
|
Величину риска определяем из равенства (3.16) при значениях k = k*0, P1 = P*1. Вероятность ложной тревоги и пропуска дефекта может быть найдена из со-
отношения |
|
|
|
|
|
|
|
|
|
|
PЛТ |
=1 − |
F(k0 / D1) |
= |
C12 |
, |
|||
|
P |
|
|
||||||
|
|
F(k |
0 |
/ D ) |
|
C |
21 |
|
|
|
ПД |
|
|
2 |
|
|
|
x0
где F(k0 / D1) = ∫ f (k / D1)dk - функция распределения D1 (в общем виде);
−∞
x0
F(k0 / D2 ) = ∫ f (k / D2 )dk - функция распределения D2 (в общем виде).
−∞
3.4. Метод Неймана-Пирсона
В случае если неизвестны оценки стоимости ошибок, решается задача минимизации одной ошибки при определенном (допустимом) уровне другой. По методу Неймана-Пирсона минимизируется вероятность пропуска дефекта при заданном допустимом уровне вероятности ложной тревоги.
Вероятность ложной тревоги
∞
P1 ∫ f (k / D1)dk ≤ A ,
x0

45
где A - заданный допустимый уровень ложной тревоги; P1 - вероятность исправного состояния.
На рисунке 8 видно, что увеличение ошибки ложной тревоги (сечение k0 перемешается влево) приводит к уменьшению величины ошибки пропуска дефекта. Ее наименьшее значение достигается при
∞ |
|
P1 ∫ f (k / D1)dk = A. |
(3.19) |
x0 |
|
Впрактических задачах можно принимать A = r·P2, где r - коэффициент избыточности, зависящий от разрешающей способности диагностических средств, опасности дефекта, экономических затрат и других соображений.
При дефектах с ограниченными последствиями можно принять r = 1…3.
При опасных дефектах r = 3…10. Для редко встречающихся (P2 < 0.01), но крайне опасных дефектов, коэффициент избыточности r может достигать и больших значений.
Взадачах диагностики можно использовать и другой подход: определить значение k0 исходя из выбранной вероятности пропуска дефекта. В этом случае
x0
∫f (k / D1)dk = В. (3.20)
−∞
где B - заданное значение вероятности пропуска дефекта, которое выбирается с учетом указанных соображений.
Если дефект крайне нежелателен даже на единичном объекте, то можно принять
B < 1r N ,
где N - общее число объектов, находящихся в эксплуатации; r - коэффициент избыточности (1 ≤ r ≤ 10).
Во всех случаях для реализации принципа невозможности маловероятных событий величина B должна быть малой (B ≤ 0.01). В методе Неймана-Пирсона граничное значение k0 определяется из уравнения (3.19) или (3.20). При практическом решении таких уравнений целесообразно использовать метод Ньютона.
3.5. Метод последовательного анализа
Метод последовательного анализа был предложен Вальдом. В отличие от метода Байеса число обследований заранее не устанавливается, их проводится столько, сколько необходимо для принятия решения с определенной степенью риска.
При использовании метода Байеса для распознавания состояний D1 и D2 следует составить отношение (для независимых признаков):
P(D / K * ) |
|
P(D ) |
|
P(k* |
/ D )...P(k* / D ) |
|
|||
2 |
= |
2 |
|
1 |
2 |
ν |
2 |
, |
|
P(D / K * ) |
P(D1) |
P(k* / D )...P(k* / D ) |
|||||||
|
|
|
|||||||
1 |
|
|
|
1 |
1 |
ν |
1 |
|
если

46
P(D / K * ) |
|
P(k* / D ) |
|
P(k* / D ) |
|
P(D ) |
|
|||
2 |
>1, или |
1 |
2 |
... |
ν |
2 |
> |
1 |
, |
|
P(D / K * ) |
P(k* / D ) |
P(k* / D ) |
P(D2 ) |
|||||||
|
|
|
|
|||||||
1 |
|
1 |
1 |
|
ν |
1 |
|
|
|
то принимается решение K * D2 .
В методе последовательного анализа отношения вероятностей (отношения правдоподобия) составляются последовательно.
Допустим, что объект К* имеет признак К1, причем он при диагнозе D2 встречается чаще, чем при диагнозе D1. При этом, если
P(K1 / D2 ) > A, то K * D2 ,
P(K1 / D1)
где А – верхняя граница принятия решения.
В противном случае, когда признак К1 значительно чаще встречается при диагнозе D1, принимается решение
P(K1 / D2 ) < B , то K* D1 ,
P(K1 / D1)
где В – нижняя граница принятия решения.
Отношение вероятностей B < P(K1 / D2 ) < A называют отношением правдо-
P(K1 / D1)
подобия.
Если в результате первой проверки данное условие выполняется, то необходима следующая проверка, тогда отношение правдоподобия:
B < |
P(K1 / D2 ) |
|
P(K2 / D2 ) |
< A. |
|||
|
|
||||||
|
P(K |
/ D ) P(K |
2 |
/ D ) |
|
||
|
1 |
1 |
|
|
1 |
|
расчеты повторяются до тех пор, пока значение отношения не выйдет за одну из указанных границ (А или В). Границы рассчитывают, исходя из вероятностей ошибок первого α и второго β рода, которые считаются заданными:
1 − β |
≥ A , |
B ≥ |
|
|
β |
. |
|
|
|
|
|
|
|||
|
α |
1 |
−α |
||||
|
|
|
|
||||
В практических расчетах можно принимать α=β=0.05…0.1. |
Пример. Проверяется состояние жидкой изоляции на основе проб масла. У незагрязненной изоляции математическое ожидание примесей µ1=1; загрязненной µ2=10. Среднеквадратические отклонения σ1 и σ2 соответственно концентрации примесей распределены по закону Гаусса. Необходимо определить состояние жидкой изоляции по последовательным пробам. Принять α=β=0.05.
В результате взятия первой пробы вычисляется следующее соотношение:
|
|
|
|
|
(x |
−µ |
2 |
) |
2 |
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
|
|
|
exp − |
1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
f (x |
/ D |
) |
|
2σ |
2 |
|
|
|
1 |
|
(x |
− µ ) |
2 |
|
(x |
−µ |
|
) |
2 |
|
||||
|
|
|
|
|
|
|
||||||||||||||||||
|
|
2 |
|
|
|
|
|
|
|
2 |
|
|
||||||||||||
1 |
2 |
|
= |
|
|
|
|
|
= exp |
|
|
1 |
1 |
|
− |
1 |
|
|
|
. |
||||
f (x |
/ D ) |
|
|
|
|
|
|
2 |
2 |
|
2 |
|
|
2 |
|
|
|
|||||||
|
(x |
−µ ) |
|
|
|
|
|
|
|
|
|
|
||||||||||||
1 |
1 |
|
|
|
|
|
|
|
σ1 |
|
|
|
σ2 |
|
|
|
||||||||
|
|
|
|
exp − |
2 |
|
|
1 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2σ12 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
После взятия n-ой пробы логарифм отношения

47
|
f (x / D )... f (x |
n |
/ D ) |
|
|
|
1 |
|
|
n |
|
(x |
− |
µ )2 |
|
(x |
i |
− µ |
2 |
)2 |
|||||||||||||||||||||||||
L = ln |
1 |
|
|
|
2 |
|
|
|
|
|
|
|
|
|
|
2 |
= |
|
∑ |
|
i |
|
1 |
− |
|
|
|
. |
|||||||||||||||||
f (x / D )... f (x |
|
|
|
|
/ D ) |
2 |
|
σ |
2 |
|
|
σ 2 |
|
|
|||||||||||||||||||||||||||||||
|
n |
|
|
|
i =1 |
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||||||||
|
1 |
|
|
|
1 |
|
|
|
|
|
|
|
|
|
|
1 |
|
|
|
|
|
|
1 |
|
|
|
2 |
|
|
||||||||||||||||
Если логарифм отношения L лежит в пределах ln e < L < ln A , то для поста- |
|||||||||||||||||||||||||||||||||||||||||||||
новки диагноза информации не хватает. |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||
Пусть в результате взятия проб получены следующие значения: х1=5, х2=4, |
|||||||||||||||||||||||||||||||||||||||||||||
х3=6, х4=5, х5=6, х6=6, х7=5. Определим границы принятия решений: |
|
|
|||||||||||||||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
A ≤ |
1 − β |
= |
1 − 0.05 |
|
=19, |
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
α |
|
|
|
|
|
0.05 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||
|
|
|
|
|
|
B ≥ |
|
|
β |
|
|
= |
0.05 |
|
= 0.0526 . |
|
|
|
|
|
|
|
|||||||||||||||||||||||
|
|
|
|
1 |
−α |
|
1 − 0.05 |
|
|
|
|
|
|
|
|||||||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||
Результаты расчета представлены на рис.9 |
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||||||||||
L |
|
|
Загрязненная изоляция |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||||||||||||||||||||||||
4 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
* |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
3 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
* |
|
|
|
|
|
|
|
|
|
|
|
|
|
LnA=2.94 |
|
|
|
|
|
||||||
2 |
|
|
|
|
|
|
|
|
|
* |
* |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||||||||
1 |
* |
* |
* |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|||
-1 |
1 |
2 |
3 |
|
|
4 |
|
5 |
|
6 |
|
7 |
|
8 |
|
|
|
N |
|
|
|
|
|
|
|
|
|||||||||||||||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
-2
-3 LnB=-2.94
Незагрязненная изоляция
Рис.9. Определение диагноза методом последовательного анализа
Из результатов расчета следует, что для постановки диагноза «изоляция загрязнена» достаточно шести проб.
Рекомендованная литература: [1,2,6]