Скачиваний:
72
Добавлен:
25.12.2019
Размер:
231.42 Кб
Скачать

3.4. Информационное описание

Рассмотренные выше описания, казалось бы, должны дать исчерпывающую информацию об исследуемой системе, о назначении, устройстве, законах поведения, обо всех проявлениях системы в Окружающей Среде. Однако роль информационного описания как самостоятельной характеристики системы нельзя приуменьшить. И это объясняется, прежде всего, значением информационного обеспечения функционирования систем, применимостью теории информации и информатики для описания процессов, протекающих в системе. Информационные подходы к описанию системы позволяют понять принципы ее построения, организации и функционирования, изучать особенностей взаимодействия систем в ОС и подсистем в самой системе, а также выявлять и анализировать ошибки ее функционирования.

3.4.1. Обменные процессы в системе и энтропия

Чтобы система существовала, взаимодействовала с ОС, она должна чем-то обмениваться с ней. Обменный процесс, связанный с передачей вещества, энергии и информации в количествах отдельных квантов-порций, значимо различимых для взаимодействующих подсистем, определяется как метаболизм.

Размер кванта зависит от многих факторов, в том числе и от свойств взаимодействующих систем. При проектировании новых систем часто возникает проблема согласования этих размеров, так как приходится использовать элементы разного типа, с разной чувствительностью обменного процесса. Различают информационный, вещественный и энергетический метаболизм, которые вместе составляют полный метаболизм системы.

Не отрицая роли вещественного и энергетического метаболизма (эти метаболизмы важны для систем энергоснабжения, систем переработки исходных веществ в конечные продукты и т.п.), следует особо отметить роль информационного метаболизма, с которым тесно связаны функциональные процессы в сложных системах. Источниками информации, запускающей эти процессы внутри системы, являются ее подсистемы и сигналы из ОС. Содержание информации составляют различные сведения (сообщения) об объектах-передатчиках информации, представленные в виде конкретной системы символов, различаемых подсистемами-приемниками этой информации. Сведения отражаются посредством носителя - сигнала, представляемого в форме вещества или энергии путем изменения (модуляции) параметров сигнала. Причем основное значение играет не величина (мощность) сигнала, а как раз закономерности модуляции его параметров. С помощью сигналов между подсистемами осуществляется обмен информационными сообщениями. Один сигнал способен передавать несколько сообщений при использовании для модуляции нескольких его параметров.

Сигналы передаются через связи (каналы связи) между подсистемами, для характеристики которых можно ввести такие показатели как

- верность передачи - мера соответствия принятого сообщения передаваемому;

- помехоустойчивость - способность системы противостоять вредному воз­действию помех;

- скорость передачи - количество информации J, передаваемой через линию связи между источником и приемником сообщений в единицу времени.

Теоретически достижимая максимальная скорость передачи информации является уже показателем соответствующей линии связи и определяет ее пропускную способность:

, (3.3)

где Т - время передачи всех сообщений за один сеанс связи.

Так как выполнение той или иной функции связано с взаимодействием подсистем, то показатели качества зависят от параметров информационных потоков, которыми обмениваются подсистемы. Поэтому характеристика этих потоков входит в информационное описание системы.

Информационное описание тесно связано с другим не менее важным понятием - понятием “энтропия - меры неопределенности случайной величины с конечным числом исходов n, определяемая как количество информации J, приходящееся на один символ сообщения в среднем. Величина энтропии Н зависит от априорной вероятности (рi) пребывания системы в любом из n возможных состояний.

Для пояснения смысла понятия “энтропия” воспользуемся представлением о статистическом ряде =(xi,pi), отражающем возможные события в системе - xi, где i=1,n, n – количество возможных событий, и вероятность pi осуществления события xi – априорная вероятность (рис. 3.10, а). Пусть произошло некоторое событие из ряда  - событие xi, то произойдет перераспределение вероятностей и это событие станет достоверным, т.е. p*i=1 - апостериорная вероятность. В результате изменилось представление об этом ряде событий, это изменение определяется как “информация” полученная в результате реализации события xi., а для ее количественной оценки используется известная логарифмическая мера Хартли [27]:

. (3.4)

Подобным образом можно рассчитать количество информации, которое будет получено, если произойдет любое возможное событие из ряда . Тогда можно заменить статистический ряд  другим рядом *(Ji,pi). Для этого ряда можно рассчитать значение математического ожидания, которое и будет определять величину Н:

, (3.5)

Энтропия является вещественной неотрицательной величиной, ограниченной сверху. Она является априорной характеристикой (т.е. может быть рассчитана еще до начала изменений в системе, если априорно известны вероятности всех ее возможных состояний) и определяет количество информации в среднем, которое может быть получено при реализации любого события из статистического ряда .

При этом, чем больше n, тем в большей степени будущее системы зависит от случайности. При равных вероятностях всех возможных состояний система полностью дезорганизована, так как во всякий момент времени она может перейти в любое состояние. О таких системах говорят, что они обладают максимальной энтропией. Повышение упорядоченности означает увеличение зависимости между факторами, определяющими поведение системы, выделение предпочтительных состояний, что приводит к предсказуемости ее поведения. Применительно к внешним случайным факторам необходимым условием возможности предсказания поведения системы является наличие модели ОС в системе (принцип "отображения Среды").

Соседние файлы в папке Пособие