Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Надежность и диагностика компонентов инфокоммуникационных и информационно-управляющих систем.-1

.pdf
Скачиваний:
1
Добавлен:
20.11.2023
Размер:
3.78 Mб
Скачать

Рис. 4.48. Пример ГСА

Пример 4.16. В табл. 4.2 (см. ниже) приведена двоичная запись каждой операторной вершины ГСА (см. рис. 4.48). Рассмотрим линейный фрагмент, показанный на рис. 4.49, в данной ГСА f = 4, для данного линейного фрагмента k = 2, так как во фрагмент входят две операторные вершины А5 и А6, которым соответствуют двоичные комбинации {a4a1}. Полином будет выглядеть следующим образом:

0 x7 +1 x6 + 0 x5 +1 x4

1 x3 + 0 x2 +1 x +1

.

+

 

a4

a1

 

В окончательном виде для данного фрагмента

Mh (x) = x6 + x4 + x3 + x +1 .

351

Рис. 4.49. Линейные фрагменты ГСА

 

 

 

 

 

 

Таблица 4.2

 

 

 

 

Разбиение ГСА на подмножества

Подмножество 1

Подмножество

 

 

a1: 1011 a4: 0101

1. A1 – A2

1. A9

 

 

a2: 1101 a5: 0010

2. A3

– A4

2. A5 – A6

 

 

a3: 0110 a6: 1010

3. A5

– A6

3.

 

 

 

 

4. A8

– A7 – A2

 

 

 

 

 

 

 

 

 

 

 

 

 

Rh(x)

k(x)

П1

1.

А1 – А2(а1,а2)

 

0110

0000

 

2.

А3

– А4(а3,а2)

 

1011

1101 А1д

 

3.

А8

– А7 – А2(а3,а5,а2)

 

1001

1111 А3д

 

4.

 

 

 

0000

0110А4д

П2

1.

А9(а6)

 

1010

0000

 

2.

А5

– А6(аn,а1)

 

1110

0100А2д

 

 

 

 

352

 

 

Совокупность полиномов Mh(x) разбивается на два подмножества. К первому подмножеству относятся полиномы, описывающие последовательности, расположенные после начальной вершины Ан или единичного выхода условных вершин, а ко второму подмножеству – полиномы, описывающие последовательности, расположенные после нулевого выхода условных вершин.

Далее выбирается G(x) – проверяющий полином. Для упрощения преобразований рекомендуется выбирать проверяющий полином вида G(х) = хq + 1, где q кратно разрядности кода операторных вершин.

Для каждого подмножества выбирается Rэт(х) – эталонный остаток от деления Мh(х) на G(х). Если для какого-то полинома его остаток Rh(x) не совпадает с эталоном своего подмножества, то Mh(x) корректируется.

Полином Mh(x) приводится к эталонному остатку в два этапа. Первоначально выполняется преобразование

Mh(x) = M1h (x) x f + M2h (x) ,

где Mh(x) – полином, соответствующий последовательности, в которую введена пустая дополнительная вершина; M1h(x) – полином степени ( fz1–1), описывающий z1 операторных вершин, расположенных до введения пустой последовательности; M2h(x) – полином cтепени (ft2–1), описывающий z2 операторных вершин, расположенных после введенной пустой вершины.

Затем

Mh′′(x) = Mh(x) +k(x)x( fz+qt ) ,

где M"h(x) – преобразовательный полином; k(х) – корректирующий полином степени q–1; t – коэффициент, определяющий расположение k(х) относительно фрагмента Mh(x), соответствующего пустой вершине.

При этом

k(x) = Rh (x) + Rэт(x) .

353

Пример 4.17. Выполним разбиение ГСА, приведенной на рис. 4.48. Коды, соответствующие каждой операторной вершине, и разбиение на подмножества 1 и 0 приведены в табл. 4.2. Третий элемент подмножества 0, представляющий собой пустое множество, соответствует переходу по нулю из P1 в P2. Элемент 3 подмножества 1 и элемент 2 подмножества 0 совпадают – {A5, A6}. Поэтому условие P1 инвертируется на P1 и соответственно выход по 1 (0) меняется на выход по

0 (1). Таким образом, в подмножестве 1 будут элементы {A1,A2}, {A3,A4}, {A8,A6,A2}, {0}, а в подмножестве 0 – {A9}, {A5, A6}.

Вкачестве проверяющего выберем полином G(x) = x4 + 1.

Втабл. 4.2 приведены Rh(x) для каждого подмножества. Для подмножества 1 в качестве эталонного остатка выбран R1эт(х) = 0110,

адля подмножества 0 R0эт(х) = 1010. Соответственно для каждого элемента указаны корректирующий полином k(x) и его обозначение.

На рис. 4.50 приведена преобразованная ГСА с введенными диагностическими вершинами.

Рис. 4.50. Преобразованная ГСА

354

СВК для данного метода показана на рис. 4.51. На СВК возлагается выполнение следующих функций:

формирование фактических остатков;

хранение и выборка эталонных остатков;

сравнение фактических и эталонных остатков;

формирование сигнала диагностирования.

Рис. 4.51. СВК на основе полиноминальной интерпретации

СС – схема свертки, представляющая собой параллельный регистр сдвига с обратными связями, СХЭ – схема хранения эталонного остатка, выборка из которой определяется значением набора логических условий, соответствующего контролируемой последовательности. УУ формирует два дополнительных сигнала:

признак диагностической вершины;

признак конца последовательности.

Вероятность обнаружения дефектов по этому методу главным образом зависит от степени проверяющего полинома, как для дефектов механизма хранения, так и для дефектов механизма дешифрации команд:

Робн = 1 – 0,5q.

355

Kизб для данного метода равно 0, так как избыточных разрядов в команду не вводится.

Избыточное время зависит от количества линейных фрагментов, и в худшем случае

tизб = (H0 1) +(H1 1) ,

N

где Н0 – количество линейных фрагментов в нулевом подмножестве; Н1 – количество линейных фрагментов в единичном подмножестве; N – общее число команд.

Задержка обнаружения дефекта аналогична задержке по методу сигнатур. СВК реализуется несколько проще, чем для контроля сигнатур, но сложнее, чем для контроля с помощью раскраски, и не является самопроверяемой.

Сравнительный анализ СВК, реализующих методы блокового и пошагового контроля

Из совокупности критериев, предложенных в подразд. 4.3.7, выберем следующие критерии для сравнения рассмотренных ранее методов и СВК:

обнаруживающие свойства;

задержку обнаружения ошибок;

модификацию рабочей программы и сложность процедур модификации;

сложность реализации СВК и объем дополнительной постоянной памяти.

Для конкретизации некоторых оценок используем наиболее типичных представителей пошагового и блокового методов контроля, реализации которых достаточно детализированы и рассмотрены ранее.

Предположим, что все ошибки равновероятны. Рассмотрим следующие дефекты механизмов работы МП:

1. Механизм выборки команд:

356

ошибки в формировании адреса памяти команд;

дефект дешифратора адреса ПЗУ;

дефект адресной шины.

Вероятность необнаружения ошибки будет выглядеть следующим образом. Для пошагового метода

Pн.о = 12 k = 12 4 = 161 ,

где k – число избыточных разрядов кода. Для блочного метода

 

1

m

 

1

8

1

 

Pн.о =

 

 

=

 

 

=

 

,

2

2

256

 

 

 

 

 

 

где m – разрядность слова.

2. Механизм хранения команд:

однократный дефект (искажение одного бита в одной ячейке): Рн.о = 0 для обоих методов;

двукратный дефект (искажение двух битов в одной ячейке): Рн.о = 0 для обоих методов;

двукратный дефект (искажение по одному биту с одинаковым порядковым номером в двух ячейках):

для пошагового метода Рн.о = 0; для блочного метода Рн.о = 1. 3. Механизм передачи данных:

константный дефект линии шины данных:

для пошагового метода Рн.о = 0; для блочного метода Рн.о = 1, если для всех блоков выполняется

четное обращение к ПЗУ; Рн.о = 0, если существует блок с нечетным числом обращений к ПЗУ (нечетное число анализируемых байтов команд).

В предположении равновероятности всех ошибок и равновесности всех механизмов (что является очень сильной идеализацией):

для пошагового метода Рн.о = 0(10)–2; для блочного метода Рн.о = 0(10)–1.

357

При пошаговом методе сравнение с эталоном выполняется при каждом обращении к ПЗУ, поэтому ошибка обнаруживается в момент первого проявления.

При блочном методе минимальная задержка формирования сигнала ошибки равна времени выполнения блока.

По этому критерию пошаговый метод предпочтительнее. Блочный метод принципиально основан на модификации про-

граммы. Один из отрицательных моментов, связанных с модификацией программы, состоит в трудности создания надежной процедуры модификации (проблема надежности программного обеспечения).

Для пошагового метода необходима процедура, вычисляющая избыточную часть кода и формирующая признаки выделенных команд, что на порядок проще модификации исходной программы для блочного метода.

По этому критерию пошаговый метод предпочтительнее.

4.4. Экспертные системы диагностирования сложных технических систем

4.4.1.Обучение и его модели. Самообучение

Впсихологии под обучением понимают усвоение ранее неизвестных знаний, умений и навыков. В искусственном интеллекте (ИИ) этому понятию соответствует обучение и самообучение интеллектуальной информационной системы (ИИС). Если ИИС стала способна к решению новой задачи в результате того, что человек заложил в нее новую информацию или новый способ принятия решения, то она является обучаемой, но не самообучаемой. Если ИИС стала способна к решению новой задачи на основе самостоятельного анализа новой информации и извлечения из нее полезных закономерностей, то она является самообучаемой [3]. В данном пособии мы будем рассматривать только самообучаемые системы.

Система обучения состоит из двух взаимосвязанных компонентов: ИИС и «Учитель».

358

Новое знание является результатом взаимодействия этих компонентов. В качестве учителя может выступать человек или окру-

жающая среда (environment).

Различают четыре модели обучения [5]. Условно-рефлекторная модель исторически явилась первой

моделью обучения, использованной в ИИС. Принцип условного рефлекса заключается в поощрении правильных действий обучаемого и наложении штрафов за неправильные действия.

Ассоциативная модель, основанная на установлении сходства между известным и неизвестным знанием, является более мягкой моделью обучения.

Лабиринтная модель обучения интенсивно изучалась на заре становления кибернетики. Она рассматривает обучение как процесс эвристического поиска выхода из лабиринта. Поиск осуществляется с применением оценки выбора направления движения в лабиринте на основе некоторых локальных критериев.

Модель обучения на примерах (прецедентах) нашла наиболее широкое применение на практике. В ее основе лежит принцип синтеза закономерности на примерах и анализа на контрпримерах. Целью этого синтеза является построение на основе экспериментальных данных моделей, описывающих закономерности между данными, часть из которых принимается за входные, а оставшиеся – за выходные.

Под закономерностью будем понимать зависимость между объектами ai, aj A, формализуемую в виде отношения R A × A или n-местной функции f: A × × A A. Более привычна префиксная

запись функции: aj = f (a1, ..., aj, …, an).

Под способом нахождения закономерности будем понимать функцию Z = <h, Q, P, R, B> [4], где h – эмпирическая гипотеза о предполагаемой закономерности на множестве объектов А (конечном или бесконечном), для которых она высказывается; Q = N/N – потенциальная опровержимость закономерности в Nслучаях из N возможных; Р – степень подтвержденности гипотезы (прошлый опыт); R – степень объясненности гипотезы (почему происходит?,

359

как?); B – ясность формулировки гипотезы, характеризуемая ее простотой и гармонией.

Факторы Р и R характеризуют меру обоснованности выдвигаемой гипотезы, а фактор Q – меру ее приемлемости.

Выдвижение гипотез играет центральную роль при поиске закономерности. Гипотеза выдвигается на основе анализа обучающих примеров (обучающей выборки данных) и подтверждается или опровергается на контрольных примерах (контрольной выборке данных). Подтверждение гипотезы характеризует успех начального проникновения в предметную область. В случае ее опровержения выдвигается новая гипотеза.

Обучение на примерах является наиболее распространенным методом. Однако в большинстве задач множество примеров потенциально бесконечно. Это означает, что существующее на данный момент конечное множество примеров может увеличиваться неограниченно. Таким образом, существует возможность проводить обучение на порциях примеров. Качество обучения в существенной степени зависит от представительности совокупности обучающих примеров, или, выражаясь языком математической статистики, от представительности обучающей выборки.

К представительной следует отнести такую обучающую выборку А, которая позволяет в выбранном пространстве контрольных признаков найти закономерность, действительную для новых примеров (контрольной выборки С) с ошибкой, не превышающей Q.

Исходя из приведенного определения, естественным является вывод, что закономерность y = f (x1, …, xn), справедливая для некоторой генеральной выборки U, справедлива и для обучающей выборки А, и для контрольной выборки С лишь в том случае, если каждая из них в отдельности хорошо представляет генеральную совокупность U.

Прямые доказательства того, выполняются ли эти условия в конкретной задаче, получить сложно в силу большого объема генеральной совокупности U. Поэтому принимаются в рассмотрение косвенные показатели. Считается, например, что чем больше объем m обучающей выборки А, тем больше вероятность того, что закономер-

360