
- •6.2. Постановка задачи построения изображений отказов системы на основе неоднородной априорной информации малых объемов
- •6.3. Схема итеративного градиентного поиска. Алгоритм Роббинса-Монро
- •6.4. Обучающая процедура на основе ортогонального тригонометрического базиса
- •6.5. Процедура группировки обучающих образов и ранжирования групп
- •Расстояния в евклидовом пространстве y между обучающим образом и другими элементами выборки (6.35)
- •Образом и другими элементами подмножества (6.65)
- •6.6. Модифицированный алгоритм Роббинса-Монро
6.4. Обучающая процедура на основе ортогонального тригонометрического базиса
Возникает вопрос о формировании
ортогональной системы функций (6.11),
которая была бы применима для построения
изображений отказов в условиях первого
варианта множественной определенности
информации о техническом состоянии
системы (известны диапазоны (6.1) изменения
диагностических параметров для всех
отказов). Рядом достоинств обладает
подход, который базируется на применении
ортогонального тригонометрического
базиса в пространстве
непрерывных функций, квадратично
интегрируемых по Риману [9]:
.
(6.21)
где R – множество вещественных чисел.
Начальные элементы этого базиса принимаются в качестве основы построения системы функций (6.11). Данная система будет ортогональна, если базисная функция gr(Y) задается следующими соотношениями [13, 14]:
(6.22)
где
–
дельта-функция (символ Кронекера).
Ортогональность системы (6.11) следует из того, что каждая функция (6.22) определяется только одним элементом базиса (6.21). Влияние других элементов исключается введением в соотношения (6.22) символа Кронекера.
Пример 6.1. Выполнить G-преобразование наблюдаемого состояния
.
(6.23)
Поскольку вектор (6.23) имеет шесть
координат (
),
ортогональная система (6.11) принимает
вид
.
(6.24)
Так как n четно, в
соответствии с выражением (6.22) коэффициент
l изменяется от 1
до 3:
.
Координатные функции вектора (6.24)
определяются следующим образом:
;
;
;
;
;
.
Тогда
.
▲
Тригонометрические функции в выражении
(6.22) ограничивают значения координат
интервалом
.
Ограниченность координат значительно
упрощает алгоритмическую реализацию
процесса построения изображений, а
также вычислительные операции при
диагностировании.
Как уже отмечалось выше, на множестве G-преобразованных элементов пространства Y порождается новое евклидово пространство . В случае использования базиса (6.21) для построения системы функций (6.11) пространство будет замкнутым и ограниченным. Каждая его координата принимает значения из интервала на вещественной оси.
При неограниченном увеличении числа
шагов (
)
достигается сходимость процесса обучения
к оптимальному вектору
:
,
(6.25)
где
–
расстояние в пространстве
между векторами Ei(k)
и
.
Ранее указывалось, что оптимальным изображением является такой вектор , при котором функционал (6.13) принимает минимальное значение. Учитывая, что в структуре данного функционала в дальнейшем используется функция (6.15), условие его минимума запишется как
.
(6.26)
Также ранее отмечалось [см.(6.10)], что
вектор
отыскивается
в пространстве
.
На данном этапе очевидно, что этот вектор
формируется на основе G-преобразованных
элементов области
и,
следовательно, принадлежит области
.
Указанный факт отражен в (6.26), а поскольку
,
это является существенной конкретизацией
области определения функционала
.
Одной из частных реализаций экстремума
(6.26) является минимум суммарного
расстояния между оптимальным изображением
и всеми элементами области
:
.
(6.27)
Соотношения (6.25) – (6.27) отражают теоретически возможный результат обучения. Очевидно, что в конкретных алгоритмах количество шагов при построении изображений ограничено объемом выборки (6.5). На заключительном шаге обучения рекуррентные соотношения (6.18) принимают вид:
,
.
(6.28)
Поэтому изображения Ei, полученные в результате заключительного шага (6.28), будут в общем случае отличаться от . Но в силу того, что обучающая выборка исчерпана, принимается
.
(6.29)
В отдельных случаях объем обучающей выборки может оказаться достаточным для продолжения обучения до выполнения условий насыщения. Указанные условия задаются различными способами. Ниже рассматриваются два таких способа [18].
В первом из них процедура обучения заканчивается, когда максимальное различие между одноименными координатами изображения Ei на предыдущем и последующем шагах не превышает предельно допустимого значения:
,
,
,
,
(6.30)
где
– модуль
выражения.
Второй способ заключается в задании предельно допустимого расстояния в пространстве между векторами изображения на предыдущем и последующем шагах обучения:
,
,
,
(6.31)
где
.
Величины а1 и а2 в выражениях (6.30) и (6.31) выбираются исходя из требований решаемой задачи. Чем они меньше, тем точнее изображения описывают свойства соответствующих отказов системы. При выполнении условия (6.30) или (6.31) принимается, что
.
(6.32)
Пример 6.2. Пусть наблюдаемое состояние системы определяется вектором
.
(6.33)
Известны диапазоны изменения диагностических параметров (координат вектора (6.33)) для всех отказов, в том числе i-го отказа:
,
,
,
(6.34)
,
.
Сформирована обучающая выборка для
i-го отказа (
):
;
;
;
;
;
;
;
;
;
;
;
;
(6.35)
;
;
;
;
;
;
;
;
;
;
;
.
Из сопоставления координат элементов выборки и диапазонов (6.34) следует, что все диагностические параметры попадают в соответствующие диапазоны.
Обучающие образы пронумерованы
с целью установить очередность их
использования в процессе обучения.
Номер образа совпадает с номером шага
обучения, на котором данный образ
используется:
.
Требуется построить изображение i-го отказа в двух вариантах. В первом процесс обучения заканчивается, когда будет выполняться условие
,
.
(6.36)
Неравенство (6.36) – это частный случай
условия (6.30) для
,
.
При выполнении данного условия
считается, что справедливо (6.32).
В рамках второго варианта изображение должно удовлетворять условию
.
(6.37)
Неравенство (6.37) представляет собой
конкретизацию условия (6.31) для
,
.
Из (6.20) и (6.22) следует, что первый шаг обучения представляется выражением
.
Второй шаг предполагает G-преобразование
следующего обучающего образа и нахождение
изображения
:
;
в соответствии с выражением (6.18)
.
Условие (6.36) после второго шага обучения не выполняется:
.
Условие (6.37) также не выполняется:
.
Третий шаг обучающей процедуры:
;
.
Условие (6.36) после третьего шага не выполняется:
.
Не выполняется и условие (6.37):
.
Аналогичным образом обучающая процедура продолжается до выполнения соответствующих условий.
Промежуточные и конечные результаты
обучения сведены в табл.6.1. В данной
таблице также показаны значения
расстояний
,
что необходимо для проверки условия
(6.37).
Таблица 6.1.
Промежуточные и конечные результаты обучения на основе выборки (6.35)
Yi(1) |
G(Yi(1)) |
Yi(2) |
G(Yi(2)) |
Ei(2) |
Yi(3) |
G(Yi(3)) |
Ei(3) |
|||||
5 |
-0,96 |
5,5 |
-0,71 |
-0,83 |
5,3 |
-0,83 |
-0,83 |
|||||
6 |
0,96 |
6 |
0,96 |
0,96 |
6,5 |
0,98 |
0,97 |
|||||
1 |
0,91 |
1,2 |
0,68 |
0,79 |
0,9 |
0,97 |
0,85 |
|||||
1,8 |
-0,90 |
2,1 |
-0,49 |
-0,69 |
1,6 |
-1,00 |
-0,80 |
|||||
2,5 |
0,94 |
2,7 |
0,97 |
0,95 |
2,8 |
0,85 |
0,92 |
|||||
ρ(Ei(1), Ei(2)) = 0,267 |
ρ(Ei(2), Ei(3)) = 0,123 |
|||||||||||
Yi(4) |
G(Yi(4)) |
Ei(4) |
Yi(5) |
G(Yi(5)) |
Ei(5) |
Yi(6) |
G(Yi(6)) |
Ei(6) |
||||
4,9 |
-0,98 |
-0,87 |
5,2 |
-0,88 |
-0,87 |
5,2 |
-0,88 |
-0,87 |
||||
5,5 |
0,71 |
0,90 |
6,3 |
1,00 |
0,92 |
6,3 |
1,00 |
0,93 |
||||
1,4 |
0,33 |
0,72 |
1,3 |
0,52 |
0,68 |
1,3 |
0,52 |
0,65 |
||||
1,7 |
-0,97 |
-0,84 |
1,7 |
-0,97 |
-0,86 |
1,7 |
-0,97 |
-0,88 |
||||
2,6 |
1,00 |
0,94 |
2,7 |
0,97 |
0,95 |
2,7 |
0,97 |
0,95 |
||||
ρ(Ei(3), Ei(4)) = 0,157 |
ρ(Ei(4), Ei(5)) = 0,053 |
ρ(Ei(5), Ei(6)) = 0,035 |
||||||||||
Yi(7) |
G(Yi(7)) |
Ei(7) |
Yi(8) |
G(Yi(8)) |
Ei(8) |
Yi(9) |
G(Yi(9)) |
Ei(9) |
||||
5,4 |
-0,77 |
-0,86 |
5,3 |
-0,83 |
-0,86 |
5 |
-0,96 |
-0,87 |
||||
6,2 |
1,00 |
0,94 |
6,2 |
1,00 |
0,95 |
6,1 |
0,98 |
0,95 |
||||
1 |
0,91 |
0,69 |
1,2 |
0,68 |
0,69 |
1,1 |
0,81 |
0,70 |
||||
2,2 |
-0,31 |
-0,80 |
1,6 |
-1,00 |
-0,82 |
2,1 |
-0,49 |
-0,78 |
||||
2,4 |
0,79 |
0,93 |
2,5 |
0,94 |
0,93 |
2,7 |
0,97 |
0,93 |
||||
ρ(Ei(6), Ei(7)) = 0,094 |
ρ(Ei(7), Ei(8)) = 0,026 |
ρ(Ei(8), Ei(9)) = 0,046 |
||||||||||
Yi(10) |
G(Yi(10)) |
Ei(10) |
Yi(11) |
G(Yi(11)) |
Ei(11) |
Yi(12) |
G(Yi(12)) |
Ei(12) |
||||
5,2 |
-0,88 |
-0,87 |
5,1 |
-0,93 |
-0,87 |
5,5 |
-0,71 |
-0,86 |
||||
6,3 |
1,00 |
0,96 |
6 |
0,96 |
0,96 |
5,7 |
0,83 |
0,95 |
||||
1 |
0,91 |
0,72 |
1,3 |
0,52 |
0,71 |
0,9 |
0,97 |
0,73 |
||||
2 |
-0,65 |
-0,77 |
1,8 |
-0,90 |
-0,78 |
1,6 |
-1,00 |
-0,80 |
||||
2,7 |
0,97 |
0,94 |
2,8 |
0,85 |
0,93 |
2,4 |
0,79 |
0,92 |
||||
ρ(Ei(9), Ei(10)) = 0,025 |
ρ(Ei(10), Ei(11)) = 0,024 |
ρ(Ei(11), Ei(12)) = 0,036 |
||||||||||
Yi(13) |
G(Yi(13)) |
Ei(13) |
Yi(14) |
G(Yi(14)) |
Ei(14) |
Yi(15) |
G(Yi(15)) |
Ei(15) |
||||
5,2 |
-0,88 |
-0,86 |
5 |
-0,96 |
-0,87 |
4,9 |
-0,98 |
-0,88 |
||||
5,6 |
0,78 |
0,94 |
6 |
0,96 |
0,94 |
5,9 |
0,93 |
0,94 |
||||
1,1 |
0,81 |
0,73 |
1,3 |
0,52 |
0,72 |
1,3 |
0,52 |
0,70 |
||||
1,9 |
-0,79 |
-0,80 |
1,8 |
-0,90 |
-0,81 |
1,7 |
-0,97 |
-0,82 |
||||
2,7 |
0,97 |
0,92 |
2,5 |
0,94 |
0,92 |
2,5 |
0,94 |
0,92 |
||||
ρ(Ei(12), Ei(13)) = 0,015 |
ρ(Ei(13), Ei(14)) = 0,019 |
ρ(Ei(14), Ei(15)) = 0,019 |
||||||||||
Yi(16) |
G(Yi(16)) |
Ei(16) |
Yi(17) |
G(Yi(17)) |
Ei(17) |
Yi(18) |
G(Yi(18)) |
Ei(18) |
||||
5,1 |
-0,93 |
-0,88 |
5,1 |
-0,93 |
-0,88 |
5 |
-0,96 |
-0,89 |
||||
5,7 |
0,83 |
0,93 |
5,9 |
0,93 |
0,93 |
5,8 |
0,89 |
0,93 |
||||
1 |
0,91 |
0,72 |
1,1 |
0,81 |
0,72 |
0,9 |
0,97 |
0,74 |
||||
2 |
-0,65 |
-0,81 |
2 |
-0,65 |
-0,80 |
1,9 |
-0,79 |
-0,80 |
||||
2,4 |
0,79 |
0,92 |
2,5 |
0,94 |
0,92 |
2,6 |
1,00 |
0,92 |
||||
ρ(Ei(15), Ei(16)) = 0,020 |
ρ(Ei(16), Ei(17)) = 0,011 |
ρ(Ei(17), Ei(18)) = 0,015 |
||||||||||
Yi(19) |
G(Yi(19)) |
Ei(19) |
Yi(20) |
G(Yi(20)) |
Ei(20) |
Yi(21) |
G(Yi(21)) |
Ei(21) |
||||
5,5 |
-0,71 |
-0,88 |
5,1 |
-0,93 |
-0,88 |
5 |
-0,96 |
-0,88 |
||||
5,7 |
0,83 |
0,92 |
5,8 |
0,89 |
0,92 |
5,8 |
0,89 |
0,92 |
||||
1 |
0,91 |
0,75 |
1 |
0,91 |
0,75 |
1,3 |
0,52 |
0,74 |
||||
1,8 |
-0,90 |
-0,80 |
2,1 |
-0,49 |
-0,79 |
1,9 |
-0,79 |
-0,79 |
||||
2,6 |
1,00 |
0,93 |
2,6 |
1,00 |
0,93 |
2,4 |
0,79 |
0,92 |
||||
ρ(Ei(18), Ei(19)) = 0,016 |
ρ(Ei(19), Ei(20)) = 0,018 |
ρ(Ei(20), Ei(21)) = 0,014 |
||||||||||
Yi(22) |
G(Yi(22)) |
Ei(22) |
Yi(23) |
G(Yi(23)) |
Ei(23) |
Yi(24) |
G(Yi(24)) |
Ei(24) |
||||
5,2 |
-0,88 |
-0,88 |
5,3 |
-0,83 |
-0,88 |
5,3 |
-0,83 |
-0,88 |
||||
6 |
0,96 |
0,92 |
6,5 |
0,98 |
0,92 |
6,5 |
0,98 |
0,93 |
||||
1,1 |
0,81 |
0,75 |
0,9 |
0,97 |
0,76 |
1 |
0,91 |
0,76 |
||||
2,1 |
-0,49 |
-0,77 |
2 |
-0,65 |
-0,77 |
2 |
-0,65 |
-0,76 |
||||
2,5 |
0,94 |
0,92 |
2,7 |
0,97 |
0,93 |
2,7 |
0,97 |
0,93 |
||||
ρ(Ei(21), Ei(22)) = 0,014 |
ρ(Ei(22), Ei(23)) = 0,012 |
ρ(Ei(23), Ei(24)) = 0,009 |
Из табл. 6.1 видно, что 14-й шаг обучающей процедуры представляется как:
;
.
После реализации данного шага условие (6.36) выполняется:
;
;
;
;
.
Таким образом, построение изображения по первому варианту на 14-м шаге завершается. Иначе, считается справедливым (6.32):
.
Для построения изображения по второму варианту процесс обучения необходимо продолжать, так как после 14-го шага условие (6.37) не выполняется:
.
Из табл. 6.1 также следует, что 24-й шаг обучающей процедуры представляется следующим образом:
;
.
После реализации данного шага условие (6.37) выполняется:
.
Таким образом, при построении изображения по второму варианту
.
(6.38)
Поскольку объем выборки составляет 24 образа, равенство (6.38) одновременно представляет собой выражения (6.29) и (6.32).
▲
Из-за ограниченности объема обучающей выборки продолжать обучение до выполнения условий насыщения возможно далеко не всегда. Поэтому в ряде случаев необходимо производить дообучение модели на основе дополнительной информации о техническом состоянии системы, полученной на более поздних этапах, в частности, на этапе применения системы диагностирования.
Пусть выборка (6.5)
по i-му
отказу дополнена
обучающими
образами:
.
Тогда рекуррентные соотношения (6.18) позволяют продолжить процесс обучения без изменения предыдущих результатов:
;
;
.
После дообучения модели вместо (6.29) принимается, что
.
Если и еще будут получены обучающие образы, следующий этап дообучения реализуется аналогичным образом.
Возможность реализовать процесс дообучения на базе предыдущих результатов (полученных на этапе обучения) указывает на адаптивность разрабатываемой модели. Под адаптивностью понимается приспособленность модели к уточнению при получении дополнительной информации о техническом состоянии системы. В данном случае имеет место параметрическая адаптивность, т.е. уточняются параметры модели (но не структура).
Каждый из векторов
,
который в дальнейшем обозначается как
Ei
может трактоваться
и как точка в n-мерном
евклидовом пространстве
,
и как набор коэффициентов уравнения
гиперповерхности, отделяющей данную
область
от других областей в пространстве
.
При этом каждая координата
показывает
степень сходства (подобия) наблюдаемых
состояний, принадлежащих i-му
отказу системы, по j-му
контролируемому параметру.