Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
OTD_shpory1.doc
Скачиваний:
2
Добавлен:
01.05.2025
Размер:
3.75 Mб
Скачать

14. Понятие энтропии системы, расчет, свойства.

Понятие энтропии было введено Клодом Шенноном, для вычисления которой, при возможных состояниях системы с вероятностями предложено выражение:

. (1.8)

Так как вероятности состояний системы , то энтропия является положительной величиной. Основанием логарифма в (1.8) может быть любое положительное число . На практике удобнее всего пользоваться логарифмом при основании 2. Целесообразность использования двоичных логарифмов легко понять, вычисляя энтропию системы, имеющей два равновероятных состояния. В этом случае . По формуле (1.8) находим

.

Определенная таким образом единица энтропии называется двоичной единицей и обозначается bit (от английского binari digit – двоичное исчисление).

Энтропия состояния системы обладает рядом свойств:

1. Энтропия обращается в нуль, когда одно из состояний системы достоверно, а все другие невозможны.

Анализ (1.8) показывает, что при этом условии одно из слагаемых , так как , а все остальные слагаемые имеют неопределенное значение типа .

2. Энтропия системы с конечным множеством состояний максимальна, когда эти состояния равновероятны.

.

Если хотя бы одна из вероятностей отказа не равна всем остальным, то выполняется неравенство:

.

Энтропия состояния системы тем меньше, чем больше отличаются друг от друга значения вероятностей (рис. 1.3).

3 . Энтропия состояния системы обладает свойством аддитивности, то есть при объединении нескольких независимых систем их энтропии складываются.

Рассмотрим две независимые системы и , имеющие соответственно и равновероятных состояний. Энтропии состояния систем и соответственно равны и . При объединении этих систем в одну получим возможных состояний. Тогда энтропия состояния такой системы будет равна

15. Выбор диагностических параметров по информационному критерию

В основу этого метода положен анализ таблицы состояний (табл.1.4.), в которой столбцы соответствуют возможным состояниям системы , а строки – всем возможным проверкам (параметрам) . Контроль каждого параметра заканчивается двумя исходами: 1 – когда значение параметра допустимо и 0 – когда значение параметра недопустимо. Каждое событие равновероятно; вероятность каждого состояния известна и определяется надежностью блоков.

На первом шаге выбора диагностических параметров рассчитывают остаточную энтропию объекта после контроля каждого из параметров. Далее выбирают самый информативный параметр. В нашем случае это пятый параметр, снижающий исходную энтропию объекта до значения 2,46 бита. Если таких параметров будет несколько, то необходимо выбрать один из них по другому критерию, например, по стоимости диагностирования, времени простоя, трудоемкости и т. п. На втором шаге выбора рассчитывают остаточную энтропию объекта при условии диагностирования комбинации выбранного на первом шаге параметра и со всеми остальными параметрами. По результатам расчета выбирают самую информативную комбинацию параметров. В нашем примере это комбинация 5-3. Процесс заканчивается, когда остаточная энтропия становится равной нулю.

Таблица состояний объекта контроля

1

2

10

11

1

2

3

5

10

0

0

1

0

0

0

0

0

1

1

1

0

1

1

0

1

1

1

1

0

2,78

2,78

2,62

2,46

2,78

51

52

53

510

00

00

00

00

10

10

10

11

11

10

11

10

11

11

11

11

2,02

2,02

1,66

1,96

531

537

5310

000

000

000

100

100

101

111

111

111

111

111

110

1,66

1,22

1,34

Информативный критерий выбора диагностических параметров позволяет установить их минимальное количество, позволяющее однозначно установить техническое состояние объекта диагностирования. Одновременно с выбором диагностических параметров решается задача построения алгоритма диагностирования.

Соседние файлы в предмете [НЕСОРТИРОВАННОЕ]