Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
2012 Модуль 1 отредактирован для самост работы....doc
Скачиваний:
10
Добавлен:
10.11.2019
Размер:
242.18 Кб
Скачать

1.4. Основные свойства систем.

Система как единое целое и относительно обособленное от внешней среды обладает рядом специфических свойств, которые часто называют системными свойствами. Ниже рассмотрим наиболее важные из них

1. Важнейшим и определяющим свойством системы является ее свойство целостности. Согласно определению, система представляет собой объективное единство целенаправленно взаимодействующих структурных элементов для достижения общесистемных целей. Свойство целостности возникает из специфических особенностей взаимодействия между элементами и подсистемами. Система как целое всегда обладает качественно новыми свойствами, которых не было у первичных элементов системы, и эти новые свойства не являются простой суммой характеристик составляющих частей системы. Проявление качественно новых свойств, не присущих отдельным элементам системы, получило название свойства эмерджентности.

Эмерджентность имеет место во всех достаточно больших и сложных системах. Например, биологическая система «лес» обладает свойствами, которые невозможно получить как сумму свойств и характеристик отдельных деревьев, кустарников, трав, произрастающих в этом лесу, а также животного мира, обитающего здесь же. Лес как система обладает качественно новыми свойствами. Поведение неорганизованной толпы также не являются суммой поведения отдельных лиц и не может быть получена как сумма их характеристик. Эмерджентные свойства толпы носят качественно иной характер, особенно в экстремальных ситуациях. Сельскохозяйственное или промышленное предприятие характеризуется большим числом показателей, отражающих практически все стороны его деятельности. Однако общесистемные свойства отрасли сельского хозяйства или промышленности как целостной системы не могут быть получены простой механической суммой (сводкой) показателей по всем предприятиям и организациям отрасли. Отрасль как система более высокого порядка обладает новыми, не присущими отдельным предприятиям и организациям эмерджентными свойствами. Эти общесистемные свойства можно исследовать только используя специальные методы системного анализа. Например, оценить действительный вклад конкретной промышленной отрасли в валовой внутренний продукт (ВВП) страны можно оценить только путем специального анализа полных общественных издержек производства и цен.

Эмерджентные свойства системы как единого целого обусловливаются проявлением особых эффектов взаимодействия между элементами системы. Эмерджентность является своеобразной формой реализации некоторых свойств связности и организованности систем, которые будут рассмотрены позже. Так, эффективность комплексного применения различных мероприятий по защите окружающей среды всегда окажется выше, чем суммарная эффективность от их отдельного применения.

В экономике эмерджентные свойства систем проявляются. например, в виде эффекта от кооперации и интеграции.

2. Свойство связности. Под свойством связности системы понимают особый характер взаимосвязей между ее элементами. Свойство связности проявляется в форме определенной упорядоченности отношений между элементами, как, например, взаимосвязи и взаимодействие механизмов и деталей в машине. Именно наличие особого характера связности между элементами служит основой вычленения системы из окружающей среды как относительно обособленного целого. Связность определяет характер внутренней структуры системы. Эффективность функционирования системы существенно зависит от характера структуры системы.

3. Свойство разнообразия системы. Реальные системы находятся в постоянном движении, что проявляется в изменении их состояния во времени. Чтобы описать процессы изменения, элементы системы представим как переменные X1, X2, …, Xn, которые могут принимать различные значения, то есть могут находиться в разных состояниях.

Если некоторая переменная Xк может находиться только в одном состоянии, то ее состояние для наблюдателя полностью определено, то есть переменная не имеет разнообразия. Допустим, что переменная может принимать только два возможных значения 0 и 1 с одинаковой вероятностью, то есть может находиться в двух возможных состояниях (например, лампочка включена – 1, не включена – 0; студент присутствует – 1, отсутствует -0 и т.д.). В этом случае уже появляется разнообразие состояний системы. Чем больше переменных рассматривается одновременно, тем больше для наблюдателя неопределенность состояний системы – ему неизвестно, в каком именно состоянии находится система. Разнообразие системы и ее неопределенность возрастают с увеличением одновременно рассматриваемых переменных. Так, если система включает две переменные X1 и X2, каждая их которых может также находиться только в двух возможных состояниях 0 и 1, то система в целом имеет четыре возможных состояния (00, 01, 10, 11), как показано на схеме табл. 2.1.

Таблица 2.1. Возможные состояния системы с двумя

переменными

Возможные значения переменных

X2

0

1

X1

0

00

01

1

10

11

При одновременном рассмотрении трех переменных число возможных состояний возрастает до 8. В общем случае число возможных состояний (N), а следовательно, и разнообразие системы определяется в зависимости от числа переменных как N = 2m, где N число возможных состояний системы, mчисло рассматриваемых переменных, 2 - основание (в данном случае - число значений, которые может принимать каждая переменная).

Ясно, что в реальной системе переменные могут находиться не только в двух, но во множестве состояний. Однако систему любой сложности можно описать с помощью переменных с альтернативной изменчивостью (изменчивостью типа 0 и 1). Принятие в качестве основания числа 2 дает значительные удобства на практике. Поэтому вся современная вычислительная техника построена на основе двоичного исчисления.

Выше мы уже заметили, что чем больше переменных системы, тем больше возможных ее состояний, тем больше ее неопределенность. Следовательно, неопределенность системы мы можем измерять показателем степени в приведенной выше формуле N = 2m .

Из формулы следует, что m = log2 N.

Меру неопределенности системы называют энтропией и в литературе обозначают символом H . Следовательно, формулу можем переписать как H= log2 N. Если все состояния системы равновероятны, как в нашем рассматриваемом случае, то энтропия достигает максимального значения. Поэтому окончательно формула энтропии системы с равновероятными состояниями имеет вид: Hmax= log2 N.

Допустим, система может находиться в 8 состояниях с одинаковыми вероятностями, равными 1/8. Обозначим вероятность каждого состояния как pi = 0,125. Тогда максимальная энтропия этой системы составляет Hmax= log2 8=3. Всякое измерение должно иметь свою меру, то есть единицу измерения. Введем единицу измерения для полученного показателя, то есть для энтропии системы. Допустим, мы рассматриваем только одну переменную, которая может находиться только в двух состояниях 0 и 1 с одинаковой вероятностью: p1 = 0,5 и p2 = 0, 5. Иначе говоря, мы рассматриваем альтернативную систему в виде двоичного разряда. Согласно формуле энтропия системы составляет: Hmax= log2 2 = 1. Это есть мера энтропии простейшей системы, которая может находиться только в двух состояниях с одинаковой вероятностью. Именно эту величину принимают как меру, как единицу измерения энтропии системы, как меру ее неопределенности, и называют битом ( от английского эквивалента двоичного разряда binary digit первая и две последние подчеркнутые буквы - бит).

Итак, количественная мера неопределенности (энтропии) системы, которая с одинаковой вероятностью может находиться только в двух возможных состояниях, принята за единицу измерения и называется битом.

Поскольку неопределенность системы уменьшается при поступлении информации о ее состоянии в данный момент времени, то, естественно, та же единица измерения используется и как количественная мера информации, то есть информация также измеряется в битах. Один бит информации – величина очень маленькая. Поэтому на практике используются более крупные единицы: 8 бит = 1 байт, один килобайт = 210 байта и т. д.

Как вводится мера информации и каковы соотношения между энтропией и информацией, покажем на следующем очень простом примере.

Допустим, система может находиться с одинаковыми вероятностями в следующих 8 состояниях:

Возможные состояния системы

а

в

С

д

А

0,125

0,125

0,125

0,125

В

0,125

0,125

0,125

0,125

Максимальная энтропия этой системы Hmax= log2 8 = 3. Допустим, поступило сообщение о том, что система находится в состоянии а, то есть она теперь может быть представлена в следующем виде:

Возможные состояния системы

а

А

0,5

В

0,5

Итак, после получения сообщения мы знаем, что система может находиться только в двух возможных состояниях, то есть ее энтропия уменьшилась и стала равной одному биту: Hmax= log2 2 = 1.

Количественную меру полученной информации можем измерить по разности между величинами энтропии до и после получения сообщения: 3 – 1 = 2 битам показывает, сколько информации содержалось в данном сообщении. Информативность полученного сообщения составила 2 бита. Следовательно, количество информации, содержащейся в данном конкретном сообщении, измеряется величиной, на которую уменьшается неопределенность состояния системы после получения сообщения.

Если бы было получено сообщение о том, что система находится в состоянии А, то система выглядела бы следующим образом:

Возможные состояния системы

а

в

с

д

А

0,25

0,25

0,25

0,25

Максимальная энтропия этой системы составляет 2 бита, поскольку она может находиться в четырех возможных состояниях: Hmax= log2 4 = 2.

Информативность полученного сообщения в этом случае составит 3 – 2 = 1 бит. Если бы о состоянии системы мы имели полную информацию, то энтропия стала бы равной нулю, а неопределенность системы исчезла. Из этого следует, что энтропия и информация – явления одного порядка, но с разным знаком: информация уничтожает энтропию. Как отмечал. немецкий физик Людвиг Больцман, энтропия есть мера недостающей информации о состоянии системы.

Обратим внимание на характер связи между информативностью сообщения и вероятностью данного события.

Из исходной таблицы мы видим, что система может находиться в состояниях А или В с вероятностью p А = 0,5 и p В = 0, 5. Следовательно, информативность сообщения о том, что система находится в одном из этих состояний А или В равна одному биту. Вероятность того, что система может находиться в одном из четырех возможных состояний а, в, с или д составляет всего 0,25. Следовательно, информативность сообщения о том, что система находится в одном из этих четырех состояний равна двум битам. Схематически это выглядит следующим образом:

Вероятность того, что система может находиться в данном состоянии (Pi)

Информативность сообщения о том, что система находится в данном состоянии (i)

0,50

1 бит

0,25

2 бита

Следовательно, вывод состоит в том, что чем меньше вероятность данного события, о котором мы получаем сообщение, тем больше информативность этого сообщения.

Данный вывод согласуется и с бытовыми представлениями об интересе слушателя к той или иной информации. Например, сообщение по прогнозу погоды о том, что завтра, 25 марта, вероятно будет снегопад, не вызовет большого интереса в силу того, что вероятность выпадения снега в марте в Москве действительно велика, а поэтому и информативность этого сообщения очень мала. Если же будет получено сообщение, что завтра в Москве ожидается землетрясение, то это сообщение привлечет очень большое внимание, сообщение более информативно, поскольку вероятность такого события очень мала.

До сих пор при рассмотрении всех примеров мы по умолчанию допускали, что возможные состояния системы равновероятны. На практике в реальных системах вероятности состояний, как правило, различны. Поэтому для определения энтропии системы, вероятности состояний которой различны, используется формула, учитывающая различия в вероятностях состояний: H = - Σ pi log2 pi , где pi – вероятности i–го состояния системы.

Детальное рассмотрение свойства разнообразия системы здесь было необходимо потому, что именно из свойства разнообразия системы, как было показано выше, выводится количественная мера энтропии и информации. Свойство разнообразия системы связано и с проблемами управления системами. В частности, возможность управления системой связана с так называемым законом необходимого разнообразия: управляющая подсистема может справляться с задачами управления только в том случае, если ее разнообразие больше разнообразия управляемой подсистемы. Например, чтобы управлять студенческой аудиторией, преподаватель должен знать существенно больше, чем студент; чтобы эффективно управлять бизнесом, нужно хорошо знать законы функционирования рынка.

4. Свойство организованности системы. Свойство разнообразия системы и следующие из него понятия «энтропия», «информация», «управление» тесно связаны с свойством организованности системы. Уменьшение неопределенности системы есть в то же время мера роста ее организованности. Основатель науки кибернетики Норберт Винер писал по этому поводу: «Как количество информации в системе есть мера организованности системы, точно так же энтропия системы есть мера дезорганизованности системы; одно равно другому, взятому с обратным знаком»*

При максимальной неопределенности состояние системы хаотично. Черты организации появляются по мере возникновения зависимостей между элементами системы. В то же время необходимо отличать простую упорядоченность элементов системы от сложности ее организации. Существенное значение в оценке организованности системы имеет характер структуры и сложности взаимосвязей между элементами. Чем более высоко организована система, тем сложнее в ней взаимосвязи.

Свойство организованности системы проявляется в изменении соотношения между нарастающей сложностью системы и совершенствованием ее структуры. Совершенствование структуры осуществляется путем организации новых форм взаимосвязей и взаимодействий между элементами системы.

Управление системой требует ее соответствующей организации. Благодаря совершенствованию структуры и организованности системы повышается ее управляемость.

5. Свойство сложности системы. Каждой системе свойственна определенная степень сложности. Степень сложности определяется числом элементов, составляющих систему, степенью разветвленности ее внутренней структуры, характером функционирования системы, возможностью описания системы на некотором языке исследования. Как уже было рассмотрено выше, по степени сложности принято различать системы: 1) простые, 2) сложные и 3) очень сложные. Характеристики систем по сложности были подробно рассмотрены выше в разделе «Классификация систем».

Научно-технический прогресс сопровождается нарастанием сложности хозяйственных систем, которую необходимо преодолевать путем совершенствования структуры и организованности производства.