Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

ТЕОРИЯ СИСТЕМ и СИСТЕМНЫЙ АНАЛИЗ

.pdf
Скачиваний:
741
Добавлен:
17.11.2019
Размер:
2.57 Mб
Скачать

 

Источник

 

 

 

Источник

 

 

 

 

Получатель

 

 

 

сообщений

 

 

 

помех

 

 

 

 

сообщений

 

 

Сообщение

 

 

 

Помеха

 

 

 

Сообщение

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Передатчик

 

 

 

Канал связи

 

 

 

Приемник

 

 

 

 

Сигнал

 

 

 

 

Сигнал +

 

 

 

 

 

 

 

 

 

 

 

помеха

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Рис. 1.10. Схема передачи информации

Сообщение, вырабатываемое источником (человеческая речь, музыкальное произведение, письменный текст, изображение), преобразуется с помощью передатчика в сигнал, вид которого удобен для передачи по каналу связи. Чаще всего в современных системах связи таким видом являются колебания тока (напряжения) или электромагнитного поля. Тип передатчика зависит от вида «естественного» и «искусственного» сигнала. Например, передатчиком при телефонной передаче является микрофон, при телеграфной передаче – телеграфный ключ, при телевизионной передаче – передающая антенна. Затем сигнал передается по каналам связи (электрическим, акустическим, оптическим, радиоканалам и т. д.) приемнику. Приемник обеспечивает обратное преобразование сигналов в сообщения. При передаче сигнала по каналу связи к полезным сигналам примешиваются помехи (шумы) от различных источников. Например, при передаче электрических сигналов помехами могут являться разряды атмосферного электричества, помехи от других линий электропередачи и т. д. [26].

В результате всех преобразований при передаче информации, искажений и помех оказывается, что сообщение, поступающее к получателю, всегда в той или иной степени отличается от сообщения, отправленного источником. Поэтому важнейшей проблемой, решаемой теорией информации, является проблема способности системы связи доставлять получателю сообщения с минимальными потерями и искажениями [26].

Теория информационного поля. Теория под таким названием, разработанная Денисовым А.А., занимается исследованием процессов отображения и анализа пространственно-распределенных систем, вопросами моделирования (отображения материальных систем в виде информационных моделей). Она опирается на аппарат математической теории поля.

В основе данной теории лежит понятие информационного поля, обобщающее понятия физических полей (гравитационных, электромаг-

31

нитных и др.). Наиболее универсальным свойством материи, объясняющим механизм всеобщей взаимосвязи и взаимозависимости явлений, яв-

ляется свойство материи обладать изменяющейся структурой, т. е. суще-

ствовать в пространстве и времени в форме универсального поля, называемого информационным. Это поле создается всей совокупностью окружающих нас предметов и явлений, выступающих источниками поля [1].

С позиций материализма материя есть объективная реальность, данная нам в ощущении. Наши органы чувств дают нам информацию, являющуюся копией отражаемой материи. Поскольку ощущение является источником информации об окружающем мире, то, говоря современным языком, материальные объекты даны нам в информации.

Таким образом, продукт отражения (информация) есть функция отображаемого. Обозначим через M измеряемое материальное свойство (цвет, масса, заряд) и через J – чувственную (воспринимаемую) информацию о нем. Адекватность информации J отображаемой материи M определяется так называемой относительной информационной проницаемостью среды Rk, в которой происходит отражение. Если отражение полное, то Rk 1; если среда затрудняет чувственное отражение, то Rk 1; если

же отражение невозможно ввиду непроницаемого барьера между нами и объектом отражения, то Rk 0 . В общем случае Rk является функцией от

М: Rk M .

Можно считать (с определенными допущениями), что информация пропорциональна измеряемой материи с коэффициентом, равным Rk:

J Rk M .

Данное соотношение иллюстрирует постулат об адекватности от-

ражения материи [1].

Все объекты и явления природы не только содержат определенную информацию, но и непрерывно испускают ее в окружающее пространство. Поскольку чувственное отражение протекает во времени и в пространстве, то информация J представляет собой сумму потоков информации от отдельных частей материального объекта.

Если говорить об отражении материального объекта некой произвольной замкнутой вокруг него поверхностью S, то полная информация составится из потоков информации, приходящихся на единицу dS площади этой поверхности. Интенсивность отражения соответствует той доли доступной нам информации, которая приходится на единицу поверхности, т. е. вектор плотности информации (интенсивности потока отражения) O dJdS . В таком случае имеет место теорема Гаусса:

32

J OdS ,

s

где – интеграл по всей замкнутой поверхности [1].

s

Эта теорема – математическое выражение философского положения о познаваемости мира.

Доступность информации подразумевает и субъективный ее отбор. Мы воспринимаем ту информацию, которая представляет для нас интерес, и некоторым образом на нее реагируем. Это называется логическим отражением.

Подобно тому, как материальные свойства с помощью чувственного восприятия адекватно отражаются окружающей средой, логическое отражение адекватно потоку чувственной информации. Другими словами, в отсутствии априорной информации об отражаемом объекте интенсивность потока логической информации E пропорциональна интенсивности потока чувственной информации O. Соотношение интенсивности этих информационных потоков характеризуется безразмерной константой Ro, зависящей от логической реакции на поток чувственной информации. Таким образом, можно записать:

E RoO .

Это математическая запись закона логического отражения.

В связи с этим законом нужно отметить, что под логикой понимается не только субъективная человеческая логика (логическая реакция на информацию, заключающаяся в ее отборе, осмыслении и выборе соответствующего поведения), но и объективная логика природы в виде причинноследственных связей источника и приемника информации.

Из закона логического отражения следует, что хотя материальные объекты различной природы в принципе получают одинаковый поток информации об отражаемом материальном свойстве, но их реакция на этот поток может быть различна в зависимости от величины Ro, характеризующей природу соответствующего объекта.

Выше изложенные законы отражения при всей своей универсальности ограничены элементарными свойствами материальных объектов типа заряда, массы, цвета и т. д., в то время как большинство объектов многокачественны. Так объект, обладающий свойством пищи, представляет собой систему элементарных материальных свойств вроде массы, вкуса, запаха, цвета и пр., не сводимую к простой сумме этих свойств. Это тем более верно в отношении систем, состоящих из совокупности элементов,

33

взаимодействие которых определяет появление различных взаимозависимых свойств системы.

Сложный объект представляет собой вектор M, компоненты которого

– элементарные материальные свойства, причем если M представляет единое целое, то целостность системы проявляется во взаимозависимости свойств. В результате при отражении объекта мы имеем векторное соотношение J Rk M или [33]:

J1

 

R11

R12 R1n

 

M1

 

J 2

 

R21

R22 R2n

 

M 2

 

 

 

 

 

 

 

 

 

,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

J m

 

Rm1

Rm2 Rm n

 

M n

 

где Jk и M k – компоненты соответственно вектора информации (восприятия) J и вектора материальных свойств М системы, а Rkk , Rki собственные и взаимные проницаемости среды, причем Rkk характеризуют отражение отдельно взятых материальных свойств, составляющих целое, а Rki

присущи только восприятию вектора М как единого целого.

Целостность чувственного восприятия может быть количественно определена через отношение суммы всех недиагональных элементов вектора восприятия к сумме его диагональных членов [33]. Подчеркнем, что число m компонент вектора информации (число ощущений) не обязательно равно числу n материальных компонент, поскольку взаимозависимость последних может создавать синтетические ощущения вроде удовольствия или комфорта или взаимно ослаблять ощущения вплоть до полной компенсации.

Точно так же при логическом отражении, помимо набора Ro, присущих логике отдельных компонент, может появиться набор констант, связанных с логикой целостного системного поведения.

Таким образом, изложенный аппарат справедлив и применительно к сложным целостным материальным системам. Здесь наибольшую трудность составляет измерение свойства целостности (т. е. взаимных проницаемостей), которое нередко имманентно присуще лишь отражающему объекту и не может быть зафиксировано никаким иным прибором. Например, удовольствие, испытываемое конкретным человеком, хотя и вы-

34

званное определенным набором материальных условий, не всегда в аналогичной ситуации возникает даже у другого человека, не говоря уже о технических средствах измерения. С учетом этого удается посредством изложенного аппарата моделировать разные сложные явления, которые порождаются физическими явлениями, но как целое к ним не сводятся.

На основе теории информационного поля были промоделированы процессы в физически неоднородных (электрогидравлических) системах, некоторые экономические явления, акты человеческого поведения и др. [33].

Энтропия, количество информации. Несколько другой подход к измерению количества информации используется в кибернетике. Поскольку в центре внимания кибернетики находятся вопросы управления, то и информация оценивается с точки зрения ее полезности для управления.

Суть управления состоит в преобразовании информации: блок управления воспринимает текущую информацию о состоянии объекта управления и результатах его деятельности, а также о состоянии внешней среды для выработки соответствующей управляющей информации, которая затем передается объекту управления. В случае детерминированного поведения управляемого объекта и среды, т. е. при отсутствии случайных внешних и внутренних возмущающих воздействий, блок управления не испытывает нужды в текущей информации. В случае, когда поведение интересующих объектов случайно и можно говорить лишь о вероятности наступления того или иного события, очевидно, что любая информация приводит к снятию априорной неопределенности. Таким образом, процесс получения информации можно интерпретировать как изменение неопределенности в результате приема сообщения [26].

Количественной мерой степени неопределенности является энтропия. Если некоторый случайный объект A может принимать конечное множество возможных состояний (исходов) А1, … Аn с соответствующими вероятностями p1, … pn, то энтропия этого случайного объекта

n

H ( A) pi log pi .

i 1

Выбор данного функционала в качестве меры неопределенности объясняется тем, что он удовлетворяет ряду очевидных требований. В частности, он равен нулю в том и только том случае, когда вероятность одного из состояний равна единице, а остальных – нулю, т. е. когда отсутству-

35

ет всякая неопределенность. С другой стороны, H (A) достигает максимального значения, когда вероятности всех исходов равны, т. е. в случае максимальной неопределенности [26].

Кроме того, в случае, когда имеется два независимых случайных объекта А и В, энтропия этих двух объектов H (A ∩ В) равна сумме энтропий каждого, т. е. к неопределенности одного объекта добавляется неопределенность другого. Если же случайные объекты А и В – зависимые, то энтропия H (A ∩ В) тоже больше энтропий каждого из этих объектов, однако обычно меньше простой суммы, т. к. условная энтропия некоторого случайного объекта меньше (или равна) безусловной энтропии: H (A | В) ≤ H (A). Для пояснения последнего утверждения можно привести пример, описанный в [26]. Пусть случайными событиями являются вызовы учеников к доске на уроке. Вызов одного из учеников уменьшает неопределенность вызова другого.

Приведенная формула информационной энтропии, выведенная К. Шэнноном, основателем теории информации, оказалась тождественной формуле Больцмана для термодинамической энтропии (энтропии закрытой термодинамической системы). Это совпадение носит не только формальный, но и содержательный характер.

Основываясь на понятии информационной энтропии, можно определить количество информации о некотором случайном объекте как разность априорной (до получения информации) и апостериорной (после получения информации) энтропий этого объекта, т. е.

I (X, Y) = H (X) – H (X | Y).

Среди свойств количества информации можно отметить следующее. При преобразовании данных содержащееся в них количество информации не может быть увеличено, т. е. преобразование позволяет представить информацию в более удобном, компактном виде, но оно не может внести новую полезную информацию.

Рассмотренный выше метод измерения количества информации полностью игнорирует ее смысл (содержание) и полезность для достижения цели (ценность, целесообразность). Семантический и прагматический подходы, учитывающие соответственно смысловое содержание и полезность информации, разрабатываются рамках семиотики – отрасль научных знаний, изучающая различные свойства знаковых систем [26].

36

1.5. Классификация систем

Существуют различные классификации систем, использующие разные признаки различения (табл. 1.1).

Таблица 1.1

Различные виды классификаций систем

Признак классификации

Классы систем

происхождение

естественные (живые, неживые),

 

искусственные (абстрактные, материальные),

 

смешанные

сложность

простые,

 

сложные

изолированность

открытые,

 

закрытые

характер функционирования

стабильные,

 

развивающиеся (самостабилизирующиеся, са-

 

моорганизующиеся)

степень организованности

хорошо организованные,

 

плохо организованные (диффузные)

способ задания целей

цели задаются извне

 

цели формируются внутри

способ управления

самоуправляемые, управляемые извне, с ком-

 

бинированным управлением;

 

с программным управлением, регулируемые;

 

с управлением по параметрам, с управлением

 

по структуре

Рассмотрим основные классификации систем.

По происхождению системы подразделяются на три основных клас-

са (рис. 1.11).

 

 

 

 

 

 

 

 

Системы

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Естественные

 

 

 

 

Смешанные

 

 

Искусственные

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Живые

 

 

Неживые

 

 

Абстрактные

 

Материальные

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Рис. 1.11. Классификация систем по их происхождению

37

1.Природные (естественные) – системы, существующие в живой и неживой природе, возникшие без участия человека. Примеры таких систем – атом, молекула, организм, популяция.

2.Искусственные – системы, созданные человеком. Они, в свою оче-

редь, подразделяются на материальные (реальные) и абстрактные (иде-

альные) системы.

Искусственные материальные системы состоят из физических объектов, собранных человеком в систему с некоторой целью. Примерами подобных систем являются механизмы, машины, автоматы, роботы, технические комплексы.

К классу абстрактных относят системы представлений, созданные средствами мышления (например: учения, теории, методологии, проекты, языки). Абстрактные системы по существу являются модельным (на определенном уровне формализма и абстракции) отображением либо средством отображения реальности. По типу используемого формализма можно выделить различные подклассы абстрактных систем, например: аналитические, логические, алгоритмические, образные и т. д.

Нужно сказать, что абстрактные системы, как правило, имеют и материальное воплощение – отображение в виде текста, диаграмм, рисунков и т. д. на бумажных или электронных носителях.

3.Смешанные – системы, представляющие собой объединения природных и искусственных объектов. Например, к смешанным можно отнести эргономические системы (комплексы «человек – машина»), организационные системы (включающие людей, а также технические устройства).

Весьма важным является деление систем по сложности. Поскольку трудно точно определить границу между простой и сложной системой, можно говорить лишь о степени сложности по некоторой шкале, на одном конце которой расположены совсем простые системы, на другом – очень сложные.

Имеется два принципиально различных подхода к определению сложности. Один подход связывает сложность не с особенностями самой системы, а с уровнем знаний исследователя о системе, с особенностями формирования и использования модели системы. Приведем примеры соответствующих определений сложных систем:

«сложной называется система, в модели которой не хватает информации для эффективного управления» [2];

«единственной специфической особенностью сложных систем является то, что наше знание о них ограничено» [6].

Исходя из данной точки зрения на сложность, одна и та же система может быть идентифицирована как сложная (если недостаток информа-

38

ции о системе не позволяет успешно управлять ею или предсказывать ее поведение) и как простая (если исследователь хорошо представляет себе структуру системы и законы ее функционирования). Например, для человека, не знакомого с устройством часов, данная система является сложной, а для часовщика – простой.

Другой подход заключается в определении понятия сложных систем через выделение характерных особенностей этих систем. К числу этих особенностей относятся [34]:

многомерность, обусловливаемая как наличием большого числа подсистем, так и наличием большого числа связей между подсистемами;

многообразие природы подсистем и связей, которое характеризуется их различной физической сущностью;

многообразие структуры, обусловливаемое как разнообразием структур подсистем, так и разнообразием объединения подсистем в единую систему;

многокритериальность, обусловливаемая разнообразием целей отдельных подсистем, а также разнообразием требований, предъявляемых со стороны других систем.

Нужно отметить, что понятия «большая» и «сложная» система – разные. Большую систему отличает только размерность, т. е. это система, состоящая из большого числа элементов. Существенной характеристикой сложной системы является многообразие (видов элементов, связей, структур, целей). Система может быть большой, но не сложной. Например, поезд, состоящий из большого числа одинаковых товарных вагонов, вряд ли можно считать сложной системой, хотя он, несомненно, относится к классу больших систем.

По степени изолированности от окружающей среды системы подразделяются на два класса:

закрытые – изолированные системы, не взаимодействующие со

средой;открытые – системы, взаимодействующие со средой, обмениваю-

щиеся с ней материей, энергией, информацией.

Понятие закрытых систем порождено физическими науками. Это относительное понятие, т. к. абсолютно закрытых систем не бывает. Можно говорить о степени замкнутости системы с точностью до принятой чувствительности модели. Так, если среда оказывает несущественное влияние на некоторый процесс, протекающий внутри системы, то систему можно считать замкнутой по данному процессу.

Закрытость/открытость системы влияет на степень выраженности энтропийных или негэнтропийных тенденций. В системах с высокой степе-

39

нью изолированности от среды наблюдается возрастание энтропии, поскольку, в соответствии со вторым законом термодинамики, состояние равновесия для таких систем характеризуется максимальной энтропией и минимальным использованием свободной энергии. Таким образом, закрытые системы имеют тенденцию к разрушению структуры, к иссяканию.

В открытых системах приток энергии предотвращает энтропию и позволяет достигать устойчивого состояния, не сопровождающегося разрушением структуры. При этом использование свободной энергии (при определенных условиях) может быть направлено даже в сторону усложнения системы.

По характеру функционирования, т. е. по способности менять свою структуру и поведение (и по характеру этих изменений) системы можно отнести к одному из следующих классов.

1.Стабильные – системы, структура и функции которых практически не изменяются в течение всего периода их существования [10]. Как правило, качество функционирования стабильных систем со временем только ухудшается. К данному классу относится, прежде всего, широкий круг неживых систем, как естественных, так и искусственных.

2.Развивающиеся – системы, структура и функции которых с течением времени претерпевают существенные изменения [10]. Качество функционирования данных систем со временем может повышаться. Примерами развивающихся систем могут служить живые организмы, социальные системы (предприятия, учреждения, компании).

Среди развивающихся систем можно выделить подклассы самоста-

билизирующихся (адаптивных) и самоорганизующихся систем, в которых происходят соответственно процессы самостабилизации и самоорганизации (см. п. 1.3). Для того чтобы в системе происходили процессы адаптации и развития, необходимо выполнение следующих условий. Во-первых, это должна быть открытая система, характеризующаяся интенсивным обменом веществом и энергией с ее окружением. Вторым обязательным условием является наличие активных элементов, поведение которых характеризуется самопроизвольностью (отсутствием жесткой детерминации извне), сочетающейся с их активным взаимодействием.

Весьма близка к классификации по характеру функционирования классификация по степени организованности. При этом под организованностью понимается степень упорядоченности, детерминированности поведения системы. По данному признаку системы подразделяют: на хорошо организованные, поведение которых можно описать в виде детер-

минированных зависимостей, и плохо организованные (диффузные), ха-

40