Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Основы системного анализа(текст лекций)

.pdf
Скачиваний:
144
Добавлен:
10.05.2015
Размер:
1.8 Mб
Скачать

41

 

 

 

 

Системы

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Искусственные

 

Естественные

 

Смешанные

 

 

 

 

 

 

Орудия

 

Живые

 

Эргономические

Механизмы

 

 

Неживые

 

Биотехнические

Машины

 

 

Экологические

 

Организационные

Автоматы

 

 

Социальные

 

Роботы

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

В качестве примеров смешанных

систем можно привести эргономические системы (комплексы šчеловек – машинаŸ, биотехнические (системы, в которые входят живые организмы и технические уст-

ства) и организационные системы, состоящие из людских коллективов, оснащенных необходимыми средствами.

Типы переменных системы. Первый уровень классификации по этому признаку включает переменные, описываемые качественно и количественно, поскольку они требуют принципиально разных подходов. Для систем, у которых часть переменных являются качественными, а другие количественными, введен третий, смешанный класс.

 

 

 

 

Системы

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

с качественными

с количественными

со смешанными

переменными

 

 

переменными

 

 

переменными

 

 

 

 

 

 

 

 

 

 

 

 

 

содержательное описание

 

дискретные

 

 

 

 

формализованное описание

 

непрерывные

 

 

 

детерминированные

смешанное описание

 

смешанные

 

 

 

 

 

 

 

 

 

 

стохастические

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

размытые

 

 

 

 

 

 

 

 

 

 

 

смешанные

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

На втором уровне классификации систем с качественными переменными различают системы, описание которых ведется средствами естественного языка, а также системы, описание которых допускает более глубокую формализацию.

Второй уровень для количественных переменных вызван различиями в методах дискретной и непрерывной математики, предусмотрен и смешанный случай.

42

Типы связей между входными и выходными переменными. На

первом уровне расположены классы систем, отличающиеся степенью

известности связей между входами и выходами.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Ветвь

šчерного

ящи-

 

 

 

 

Системы

 

 

 

 

 

 

 

 

 

 

 

 

 

 

каŸ на этом заканчивает-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

ся: связи здесь неизвест-

 

šчерный

 

непараметр.

 

параметр.

 

 

šбелый

ны.

 

 

 

 

ящик

 

класс

 

 

класс

 

 

ящикŸ

Чем

больше

сведе-

 

 

 

инерционные

 

 

 

 

 

ний о характере этих свя-

 

 

 

 

 

 

 

зей, тем

более развитой

 

 

безинерционные

 

 

 

 

 

 

 

 

 

 

 

будет классификация. Ес-

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

замкнутые (с обратной связью)

ли информация о связях

 

 

 

 

 

 

 

имеет настолько

общий

 

 

 

разомкнутые (без обратной связи)

 

 

 

 

 

 

 

 

 

 

 

 

 

характер,

что

модель

 

 

 

 

 

линейные

 

 

 

 

 

 

 

 

 

нельзя привести к функ-

 

 

 

 

 

нелинейные

 

 

 

циональной форме

(на-

 

 

 

 

 

квазилинейные

 

 

 

 

 

 

 

 

 

пример, может быть из-

 

 

 

 

 

 

 

 

 

 

 

 

 

вестно, что в функция Y = S(X) непрерывна и монотонна, но это еще

не говорит о функциональном виде этой зависимости), то это будет непараметрический класс.

Если зависимость между входами и выходами можно записать в виде функциональной зависимости по конечному числу параметров, то этому соответствует третий блок уровня классификации – параметрический класс.

И наконец, если в данных зависимостях нет неопределенности ни по одному из параметров, то это будет šбелый ящикŸ.

Второй, третий и четвертый уровни ясны из рисунка. И в принципе классификация может быть продолжена.

Способы управления системой. В зависимости от того, как осуществляется управление системой, классификация по этому признаку может быть представлена следующим образом.

Для того чтобы система šшлаŸ к поставленной цели, ею нужно управлять, а значит, нужна специальная система управления. Так вот, первый уровень классификации определяется тем, входит ли управляющий блок в систему (самоуправляемые) или является внешним по отношению к ней (управляемые извне); выделяется также класс систем с комбинированным управлением.

 

43

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Системы

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Управляемые извне

 

Самоуправляемые

 

С комбинированным управлением

 

 

 

 

 

 

без обратной связи

 

прогр. управление

автоматические

регулирование

 

автом. регулир-ние

 

полуавтоматические

 

управление по

 

параметрическая

 

автоматизированные

 

параметрам

 

адаптация

 

 

 

управление по

 

структурная

 

организационные

 

структуре

 

адаптация

 

 

 

 

Однако независимо от того, является ли система самоуправляемой или она управляется извне, можно выделить четыре основных способа управления и эти способы составляют второй уровень классификации. Эти способы различаются в зависимости от степени известности траектории, по которой система продвигается к цели, и способности системы управления удерживать управляемую систему на этой траектории.

Простейший случай имеет место тогда, когда нужная траектория известна точно, и развитие событий всегда соответствует этой траектории независимо от управляющих воздействий. Такой способ управления называется программным.

Пример. Стрельба из ружья, работа ЭВМ по программе, рост зародыша организма и т.п.

Однако такие случаи встречаются исключительно редко. Чаще оказывается, что система в своем движении к цели, что называется, šсходит с траекторииŸ. В этом случае, чтобы возвратить ее на нужную траекторию, необходимо осуществлять дополнительное управление. Такой способ управления называется регулированием.

Пример. Управление станками оператором, работа автопилота и т.п.

Однако регулирование дает эффект только при сравнительно šмалыхŸ отклонениях системы от траектории. Если же это отклонение велико, одного регулирования становится недостаточно, и управление осуществляется путем изменения параметров движения системы к цели (параметрическая адаптация).

Пример. Процессы адаптации живых организмов к изменяющимся условиям жизни, работа шофера или пилота, работа автоматизированных систем

44

управления и т.п. Различие между данным и предыдущими способами можно представить как два способа турпохода: можно наметить маршрут заранее и в походе придерживаться его, а можно идти без заранее составленного плана, ориентируясь лишь по компасу и учитывая рельеф местности.

Иногда может оказаться и так, что среди возможных комбинаций значений управляемых параметров не найдется такой, которая обеспечила бы возвращение системы на траекторию. Это означает, что поставленной цели с помощью данной системы достичь не удастся. Нужна структурная перестройка этой системы, т.е. фактически надо создавать новую систему. Правда, эта новая система должна иметь те же входы и выходы, что и старая, но структура внутри системы должна быть изменена. Такое управление называется структурной адаптацией.

Примеры. ГАПС, машины со сменными рабочими органами, организационные изменения в государственном аппарате и т.п.

Ресурсное обеспечение управления системами. Гораздо сложнее дело обстоит в случае, если и все возможные структурные преобразования не могут обеспечить достижение цели. Это означает, что данная цель при имеющихся ресурсах управления принципиально не достигается, а значит, от этой цели придется отказаться. Новая же цель требует создания и новой системы, а значит, и новой системы управления, обладающей другими, достаточными, ресурсами.

Различают три вида ресурсов управления системами: энергетические, материальные и информационные.

Достаточно просто обстоит дело с энергетическими ресурсами, потому что затраты энергии на управление обычно малы по сравнению с количеством энергии, потребляемой в управляемой системе. Однако в ряде случаев (например, выполнение энергоемких задач автономными системами – в космосе) задача становится нетривиальной.

Гораздо более сложным является материальное обеспечение управления системами. Если используется компьютерное управление (а оно используется все чаще), то материальным обеспечением его будут объем памяти и машинное время. Эти ресурсы ограничивают возможности решения задач большой размерности в реальном масштабе времени.

45

Так вот, системы, управление которыми затруднено вследствие их большой размерности, принято называть большими.

 

Системы

Существует два

 

 

 

способа

перевода

Энергетические

Обычные

Энергокритичные

больших

систем

в

разряд малых:

 

 

 

 

 

Материальные

Малые

Большие

 

разработка

 

 

 

более мощных вы-

Информационные

Простые

Сложные

числительных

 

Ресурсы

 

 

средств, либо

 

Полная

Недостаточная

 

разделение

Обеспеченность

(декомпозиция)

 

 

 

 

 

 

многомерной задачи

 

 

 

на совокупность взаимосвязанных задач меньшей размерности.

И, наконец, третий тип ресурсов – информационные. Системы, для управления которыми достаточно информации, принято называть простыми. Если же информации для эффективного управления недостаточно, то такие системы являются сложными.

Понятие простоты или сложности системы имеет относительный характер.

Примеры. 1. Кодовый замок качественно различен для тех, кто знает код и тех, кто его не знает.

2.Каждому родной язык кажется проще иностранного.

3.Люди, умеющие и не умеющие управлять автомобилем.

Имеется также два способа перевода систем из разряда сложных

вразряд простых:

выяснение причины сложности, получение недостающей информации и внесение ее в модель. Это, кстати, как раз и является основной задачей науки, познания вообще и системного анализа, в частности;

смена цели. Если в технических системах это, как правило, неэффективно (подобно забиванию гвоздей микроскопом), то в отношениях между людьми это часто является единственным выходом из положения (руководитель ставит перед коллективом посильные цели).

46

Понятия šбольшаяŸ и šсложнаяŸ система в теории систем окончательно еще не установились, поэтому при чтении специальной литературы можно встретить различные варианты их употребления. Некоторые авторы вообще не используют эти понятия, другие считают, что это одно и то же, третьи считают разницу между ними чисто количественной и т.п. Чтобы пояснить разницу между большими и сложными системами подробнее, можно показать, что существуют все четыре возможных комбинации систем:

šмалые простыеŸ (исправные бытовые приборы – для пользователя; неисправные – для мастера и т.п.);

šмалые сложныеŸ (неисправные бытовые приборы – для пользователя);

šбольшие простыеŸ (шифрозамок – для взломщика: система простая, т.к. требуется только перебрать все варианты, однако одновременно и большая, т.к. времени на перебор вариантов может не хватить; точный прогноз погоды);

šбольшие сложныеŸ (мозг, экономика страны, живой орга-

низм).

Вообще, роль информации в системах весьма значительна. Если материальные и энергетические потоки, образно говоря, питают систему, то потоки информации организуют ее функционирование, управляют ею.

3.7. Информационные аспекты изучения систем

Информация как свойство материи. Информация в настоящее время рассматривается как фундаментальное свойство материи. Понимание этого сложилось не сразу, а в ходе развития конкретных наук (физики, биологии, теории связи и т.д.), с одной стороны, а также теории познания в целом – с другой.

Философия объясняет это следующим образом. Так как информация представляет собой некие знания, а знание, в свою очередь, есть отражение реального мира, а отражение является всеобщим свойством материи, то таковым является и информация. О том, что информацию можно оценить количественно, философия говорит так: между объектом и знанием о нем всегда есть некоторое соответствие, и чем сильнее выражено это соответствие, тем больше информации знание содержит об объекте.

47

Несколько по-другому к вопросу о количестве информации подходят конкретные науки. Они утверждают, что исчерпывающего знания об изучаемом объекте, процессе, явлении получить невозможно в принципе уже хотя бы потому, что в процессе познания участвует человек, а значит 100%-ой объективности быть не может. Отсюда следует, что в полученных знаниях всегда присутствует некоторая неопределенность. Меру этой неопределенности установил еще в Х1Х веке известный ученый Л. Больцман. Он изучал термодинамические процессы в тепловых машинах, и не смог их описать, пока не ввел специальное понятие, которое он назвал энтропией, и не вывел формулу для определения ее величины.

Уже тогда (в 1877 г.) Л. Больцман определил энтропию как недостающую информацию о процессе, правда, в то время его не поняли. И только когда К. Шэнноном была создана теория информации, и его формула для информационной энтропии оказалась абсолютно идентичной формуле Л. Больцмана для энтропии термодинамической, стало ясно, что это не случайное совпадение, а выражение глубинной связи между теорией информации и конкретными науками (в данном случае – термодинамикой).

Сигналы в системах. Отвлечемся немного от количественных оценок информации и поговорим о сигналах. Сигналы в системах являются средством перенесения информации в пространстве и во времени. В качестве сигналов используются некоторые объекты, вернее, не сами объекты, а их состояния. Это может быть проиллюстрировано на следующем примере.

Пример. Колебания воздуха могут быть звуками музыки, речью лектора, пением птиц или шумом самолета; с магнитной ленты можно стереть одну запись и сделать другую и т.д.

Далее, объект, информацию о котором мы хотим получить, взаимодействует не только с нами, но и с другими объектами, однако для них он сигналом не является. И наоборот, мы, желая получить информацию об интересующем нас объекте, одновременно получаем информацию и о многих других объектах. Для того чтобы выделить из большого количества поступающей к нам информации нужный сигнал, необходимо иметь код. Вся посторонняя информация при этом является помехами или шумом. И если нам не удалось получить

48

нужный нам сигнал, то причин может быть две: либо сигнал заглушается шумом, либо имеет место рассогласование кодов.

В искусственных системах рассогласование кодов может иметь место, если они специально засекречены (наука – криптография), а в природных системах выделить нужный сигнал не удается, главным образом, из-за незнания кода.

Это ярко прослеживается на примере поиска внеземных цивилизаций, когда уже более 40 лет земляне регулярно посылают в космос различные сигналы, а также прослушивают его. Однако до сих пор никаких положительных результатов это не дало.

Поскольку сигналы служат для переноса информации в пространстве и во времени, в качестве переносчиков сигналов могут использоваться только те объекты, которые достаточно устойчивы по отношению к течению времени или к изменению положения в пространстве. С этой точки зрения выделяют два типа сигналов:

статические, обладающие стабильными состояниями (книга, фотография, магнитофонная запись и т.п.), и

динамические, т.е. сигналы, которые не могут быть локализованы в одном месте, но способны к распространению (звук, свет и радиосигналы).

Динамические сигналы при этом используются преимущественно для передачи, а статические – для хранения информации, хотя можно найти и противоположные примеры (письма, газеты и т.д.).

Основные параметры информации. А теперь вернемся к количественным оценкам информации. Так как информация допускает количественную оценку, она должна характеризоваться определенными параметрами.

Энтропия. Первым таким параметром является энтропия. Энтропия – это количественная мера неопределенности случайных процессов. Что такое – энтропия, можно проиллюстрировать следующим примером.

Пример. Если некоторое событие может произойти с вероятностью 0,99 и, следовательно, не произойти с вероятностью 0,01, а другое событие имеет вероятности соответственно 0,5 и 0,5, то в первом случае событие можно прогнозировать šпочти навернякаŸ, во втором же случае неопределенность исхода столь велика, что от прогноза лучше воздержаться.

49

Согласно теории информации К. Шэннона энтропией случайного объекта Х с конечным множеством возможных состояний Х1, … , Хi, … , Хn с соответствующими вероятностями проявления каждого из этих состояний р1, … , рi, … , рп является величина:

n

 

Н(Х) = - pi log pi .

(3.1)

i 1

 

Нетрудно заметить, что только эта зависимость обладает качествами, которыми должна обладать мера неопределенности, а именно:

Н(р1, … , рп) = 0 в том и только в том случае, когда какоенибудь одно рi равно единице (а остальные – нули);

Н(р1, … , рп) достигает наибольшего значения при р1 = р2 = …

=рп = 1/n, т.е. в случае максимальной неопределенности. Количество информации можно определить как меру уменьше-

ния неопределенности в результате получения сигнала. Это соответствует разности энтропий до и после приема сигнала:

I(X, Y) = H(X) – H(X / Y), (3.2) где Н(Х) – энтропия до получения сигнала; Н(Х / Y) – энтропия после получения сигнала (символ Х / Y означает, что процесс после получения сигнала из состояния Х перешел в состояние Y).

Единицы измерения энтропии и количества информации. Из определения Н и I следует, что, они безразмерны, а из линейной связи между ними (3.2) – что они имеют одинаковые единицы измерения. Поэтому для определенности будем говорить об энтропии.

За единицу энтропии принимается такая неопределенность случайного объекта, что

n

 

Н(Х) = - pi log pi = 1.

(3.3)

1

 

Наименьшее число возможных состояний объекта, при которых он остается еще случайным, равно 2, т.е. п = 2. Если и в основании логарифма взять 2, то из равенства - р1 log p1 – p2 log p2 = 1 следует, что р1 = р2 = ·. Следовательно, единицей неопределенности служит энтропия объекта с двумя равновероятными состояниями. Эта единица получила название šбитŸ. Количество информации в 1 бит дает бросание монеты.

Сигнал передается набором символов. Однако по ряду причин количество информации, которое несет сигнал, обычно меньше, чем то, которое он мог бы нести по своей физической природе. Для опи-

50

сания этого свойства сигналов введено понятие избыточности и определена ее количественная мера.

Если сигнал длиной в п символов содержит количество информации I, то исходя из принципа избыточности, то же количество информации может быть представлено с помощью меньшего числа символов (п0). В качестве меры избыточности R принимается относительное удлинение сигнала, соответствующее данной избыточности:

R = (n – n0) / n = 1 – I1 / I1 max,

(3.4)

где I1 = I / n - количество бит информации, приходящееся на один символ при наличии избыточности; I1 max = I / n0 - количество бит информации на один символ без учета избыточности.

Следующим важнейшим параметром является скорость передачи информации. Эта величина определяется по формуле (3.2), где энтропии исчисляются на единицу времени.

Пример. Для наглядного представления о величине скорости передачи информации можно указать, что темп обычной речи соответствует скорости порядка 20 бит/с, муравьи обмениваются информацией путем касания усиков со скоростью около 0,1 бит/с.

Скорость передачи информации по каналу связи зависит от многих факторов – энергии сигнала, числа символов в сигнале, полосы частот, способа кодирования и декодирования и др. По возможности ее, конечно, нужно увеличивать, однако обычно существует предел, выше которого увеличение скорости передачи информации по каналу невозможно в принципе. Этот предел называется пропускной способностью канала. Для представления о порядке величины пропускной способности можно привести такие примеры.

Пример. Прямыми измерениями установлено, что пропускная способность зрительного, слухового и тактильного каналов связи человека имеют порядок 50 бит/с (вопреки распространенному мнению о сильном отличии зрительного канала). Если предложить человеку нажимать педаль или кнопку в темпе получения сигналов, т.е. включить в канал и šисполнительныеŸ органы человека, то пропускная способность близка к 10 бит/с. Следует отметить, что многие бытовые технические устройства слабо согласованы с органами чувств человека. Например, канал телевидения имеет пропускную способность в десятки миллионов бит/c.