- •1. Основные понятия и определения технической диагностики
- •2. Задачи технического диагностирования
- •4. Поиск неисправностей (дефектов) при которых решается проблема точного указания в объекте элемента или множества элементов, среди которых находится неисправный элемент.
- •Диагностирование в жизненном цикле технических объектов.
- •Энтропия системы
- •2. Если система, имеет n равновероятных состояний, то очевидно, что с увеличением числа состояний энтропия возрастает, но гораздо медленнее, чем число состояний.
- •3. Если система а имеет n возможных состояний, то энтропия будет максимальной в том случае, когда все состояния равновероятны.
- •Измерение информации
- •Диагностическая ценность признаков.
- •Математические модели аналоговых объектов.
- •Логические модели
- •Диаграммы прохождения сигналов
- •Топологические модели
- •9. Математические модели дискретных комбинационных объектов
- •10. Математические модели дискретных устройств с памятью
- •11. Тестовое диагностирование
- •12. Функциональное диагностирование
- •13. Функциональные схемы систем диагностирования
- •14. Алгоритмы диагностирования и методы их построения
- •15. Диагностические признаки и условия работоспособности
- •Определено множество состояний объекта s, т.Е. Совокупность диагностических признаков θ.
- •Существуют номинальные лучшие состояния, т.Е. Определены θном.
- •Отклонения работоспособных состояний от номинальных допускаются в определенных пределах , соответствующих диапазону (н - нижнее, в- верхнее значение).
- •16. Степени работоспособности
- •17. Методы контроля работоспособности
- •Метод, основанный на контроле совокупности диагностических параметров
- •Метод, основанный на контроле обобщенного диагностического параметра
- •Метод сравнения реакции объекта диагностирования и эквивалентной модели
- •18. Признаки и методы обнаружения дефектов
- •19. Алгоритмы поиска дефектов
- •20. Методы построения алгоритмов поиска дефектов. Методы, основанные на показателях надежности
- •Методы, основанные на анализе таблиц состояний
- •22. Человек-оператор в системе диагностирования
- •23. Типовые структуры и показатели систем диагностирования
- •24. Аппаратное обеспечение отказоустойчивости
- •1. Аппаратурное резервирование
- •2. Алгоритмическое обеспечение отказоустойчивости
- •Мажоритарные избыточные структуры.
- •1) Синтез многосвязных автоматических систем с жесткой структурой
- •2) Синтез многосвязных автоматических систем с гибкой структурой
- •26. Общие вопросы прогнозирования изменения технического состояния объектов
- •1) Прямое и обратное
- •27. Выбор прогнозирующих параметров
- •29. Диагностирование логических схем на функциональных элементах.
- •30. Диагностирование релейно-контактных схем.
- •31. Методы построения тестов для комбинационных схем.
- •32. Обнаружение коротких замыканий.
- •2. Последовательностный поиск, при котором кз, содержащее контур ос с четным числом инверсий, обнаруживается на последовательности входных наборов.
- •33. Контроль исправности электрического монтажа логических устройств
- •34. Обнаружение неисправностей вида «временная задержка»
- •35. Вероятностное тестирование
- •36. Диагностирование дискретных устройств с памятью. Построение диагностических и проверяющих тестов
- •37. Сигнатурный анализ
- •38. Методы сканирования
- •39. Структурные схемы функционального диагностирования комбинационных схем
- •1) Контроля входного вектора – выходы z1 и z2 принимают значения (0,1) или (1,0), если на входе тестера присутствует вектор кода nRp, и принимают значения (0,0) или (1,1) в противном случае;
- •2) Самопроверки – для любой неисправности схемы тестера из заданного класса существует входной вектор кода nRp, на котором выходы z1 и z2 принимают значения (0,0) или (1,1).
- •1) Синтез дополнительного блока g(X) с наименьшей сложностью.
- •40. Методы контроля, использующие свойства кода.
- •41. Обнаружение неисправностей в схемах с памятью.
- •42. Организация тестового диагностирования мпс
- •43. Тестирование программ.
- •44. Средства функционального диагностирования мпс
- •45. Постановка задачи диагностирования.
- •46. Вероятностные методы.(метод байеса)
- •47. Логическая модель непрерывной системы.
2. Если система, имеет n равновероятных состояний, то очевидно, что с увеличением числа состояний энтропия возрастает, но гораздо медленнее, чем число состояний.
3. Если система а имеет n возможных состояний, то энтропия будет максимальной в том случае, когда все состояния равновероятны.
Во многих случаях требуется рассматривать сложную систему, состоящую из нескольких отдельных систем. Пусть система А может иметь n групп состояний (А1,…Аn) с вероятностями Р(А1), …, Р(Аn); соответственно система В имеет m групп состояний В1,…Вm с вероятностями Р(В1), …, Р(Вm). Объединенная система С=АВ – определяется сочетанием состояний систем А и В.
Система АВ может находиться в одном из следующих m·n возможных состояний:
n – количество строк, m –количество столбцов.
Состояние АiBj означает, что проведено соединение систем А и В, приведенная матрица отображает возможные сочетания состояний. Для вычисления энтропии системы АВ следует составить сумму произведений вероятностей состояний на их логарифмы:
(8)
Преобразование уравнения (8) показывает, что для сложной системы, объединяющей две статически независимые системы, общая энтропия равна сумме энтропий этих систем. Так как энтропия системы неотрицательная величина, то при объединении систем энтропия возрастает или остается неизменной.
или
Энтропия сложной системы, объединяющей две статистически зависимые системы равна сумме энтропий одной системы и условной энтропии другой системы относительно первой, это положение может быть представлено в виде выражения:
Условная энтропия характеризует
статистическую связь систем А и В. Если
она отсутствует, т.е.
,
то
.
В этом случае условная энтропия системы
совпадает с ее независимой энтропией.
Измерение информации
Количество информации – есть разность неопределенностей (энтропий) системы до и после получения информации.
Если начальная энтропия системы
равна H(A),
а после получения информации она
составляет H*(A),
то внесенная информация
.
Зачастую информация относительно системы А получается с помощью наблюдения за другой, связанной с ней системой В. Обычно эта вторая система (система сигналов) дает информацию о состоянии основной системы. Среднюю величину этой информации, или информативность системы В относительно системы А, можно определить из равенства
(9)
В правой части соотношения (9) содержится разность первоначальной энтропии системы А и ее энтропии после того, как стало известным состояние системы сигналов В. Так как системы сигналов А и В являются связанными, то, в свою очередь, знание состояния системы А изменит априорную вероятность состояний системы В.
Средняя информация, содержащаяся в системе А относительно системы В:
(10)
Установлено, что для сложной системы,
объединяющей две статистически зависимые
системы, верно равенство
.
В силу этого соотношения, для информации будет верно выражение:
(11)
Равенство (11) выражает важное свойство взаимности информации. В окончательном виде выражение для информации, которую несет система сигналов В относительно состояния системы А будет иметь вид:
(12)
Если системы А и В независимы, то
и тогда из выражения (12) вытекает:
С физической точки зрения результат очевиден – наблюдение над одной из систем не может дать информации относительно другой, если между состояниями этих систем нет связи.
Величина
представляет собой ожидаемое значение
информации, содержащейся в системе В
относительно всех состояний системы
А. Если
– средняя информация, содержащаяся в
системе В относительно состояния Аi,
то естественно считать, что:
(15)
Объединив выражения (13) и (15), можно записать:
(16)
Это выражение в эквивалентной форме будет иметь вид:
(17)
Более удобным для вычислений является выражение вида:
Так как системы А и В статистически зависимые, то знание состояний системы А дает информацию относительно системы В. Соответственно можно записать:
где
- информация, которой обладает состояние
Аi относительно
системы В.
По аналогии следует
.
Легко проследить и другие подобные
зависимости, вытекающие из свойства
зависимости информации.
