
- •1.Место контроля и диагностирования в системе эксплуатации.
- •2.Задачи системы контроля и диагностирования.
- •3.Условия по внедрению системы контроля и диагностирования ат.
- •4.Метод Байеса.
- •5.Метод минимального риска.
- •6.Метод эталонов.
- •7.Метод минимального расстояния до множества.
- •8.Метод разделения в пространстве признаков.
- •9.Логические методы.
- •10.Оценка материалов по их физико-механическим характеристикам.
- •Вопрос 11. Развитие трещин при работе конструкций ат
- •Вопрос 12. Механизм развития повреждаемости
- •Вопрос 13. Суммирование повреждений при длительном статическом нагружении
- •Вопрос 14. Механизм развития повреждаемости
- •Вопрос 15. Суммирование усталостных повреждений
- •Вопрос 16. Повреждаемость при термоусталости
- •Вопрос 17. Изнашивание при трении скольжения
- •Вопрос 18. Изнашивание при трении качения
- •Вопрос 19. Газоабразивное изнашивание
- •Вопрос 20. Процесс образования коррозии
- •21. Особенности коррозионной повреждаемости авиационных конструкций
- •22. Информационные основы технической диагностики
- •24. Задачи и структура систем сбора и обработки информации.
- •25. Задачи лаборатории диагностирования
- •26. Состав лаборатории надежности и диагностики.
- •27.Группа неразрушающих методов контроля и группа анализа масла.
- •28)Контроль технического состояния вс в полете Вопрос 1. Зависимость безопасности полета от контроля состояния ат
- •Вопрос 2. Общая структура бортового контроля
- •29)Диагностирование ат при то и ремонте Вопрос 1. Диагностирование ат при то
- •Вопрос 2. Диагностирование ат при ремонте
- •30) Виды неразрушающего контроля
- •31) Акустический вид нк
- •32)Визуально-оптический вид нк
- •Вопрос 33. Магнитный вид нк
- •Вопрос 34. Капиллярный вид нк
- •Вопрос 35. Вихретоковый вид нк
- •Вопрос 36. Лучевой вид нк
- •Вопрос 37. Методы течеискания
- •Вопрос 38. Другие виды неразрушающего контроля
22. Информационные основы технической диагностики
Получение информации об объекте – необходимое условие для постановки диагноза. В основе процесса получения и оценки информации лежит понятие «энтропия», изучаемое в термодинамике, также с ее помощью можно измерять информацию об объекте.
Вспомним основное правило: в самопроизвольных системах энтропия всегда возрастает, причем возрастание всегда сопровождается хаотическим разупорядочением. Книги и бумаги на столе обязательно приходят в беспорядок, если за ними не следить. Это результат случайной, а не организованной деятельности. Порядок создается искусственно и ему соответствует уменьшение энтропии. Неупорядоченное состояние всегда более вероятно, а вероятность количественно оценивается на основе накопленных статистических данных.
Зависимость энтропии от статистических характеристик впервые открыта Л.Больцманом в 1872 г. и имеет вид
,
где
– статистический вес системы;
– константа
(постоянная Больцмана).
Физический смысл статистического веса заключается в числе способов существования системы или объекта при заданных условиях. Это целое положительное число.
Чем
больше у системы возможностей отклонения
от равновесного неупорядоченного
состояния, тем интенсивнее возрастает
статистическая энтропия, стремясь к
максимальному значению (у системы из 4
элементов максимальный статистический
вес
равен 6, у системы из 6 элементов
уже будет равно 20, соответственно
увеличится и
).
Теперь коснемся связи между энтропией и информацией. С этой точки зрения энтропия есть мера нашего «незнания», мера недостатка информации о рассматриваемой системе. При подбрасывании монеты у нас могут произойти только два события – выпадение «орла» или выпадение «решки». Энтропия невелика, и информации дает одно из событий немного, так как вероятность появления события велика. При подбрасывании игральной кости энтропия растет, так как может произойти 6 событий, и каждое событие дает нам больше информации.
Реализация менее вероятного события дает больше информации. Этот постулат
разработал американский инженер и математик К.Шеннон при разработке основ теории информации.
Очевидно, что при бросании двух игральных костей мы получаем вдвое больше информации. Таким образом, информация, получаемая в независимых сообщениях, суммируется, т.е.
,
где
,
– число равновероятных событий в первой
и второй системах.
В то же время полное число равновероятных событий в двух независимых системах равно их произведению:
.
Количество информации находится по формуле
.
Информация выражается в битах – двоичных единицах.
Если
перейти к состояниям технических
объектов (систем), то очевидно, что
появление неисправных состояний менее
вероятно, чем исправных. Простой моделью
такой системы может послужить та же
игральная кость, у которой пять граней
с цифрой 1 (исправное состояние), а одна
– с цифрой 2 (неисправное состояние).
Вероятность появления определенного
состояния
,
где
,
– соответственно число реализованных
и возможных событий в каждом из состояний
.
Если известно число возможных состояний
системы
,
а также вероятность их появления, то
можно оценить максимальную неопределенность
системы или степень ее возможной
изменчивости
.
Эта зависимость называется информационной энтропией.
23. Определение и построение зависимостей статистического веса, статистической энтропии от количества элементов в системе
Хуй его знает что тут говорить:)))))