Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
7. САМООРГАНИЗАЦИЯ И ЭВОЛЮЦИЯ СЛОЖНЫХ СИСТЕМ, Д...doc
Скачиваний:
23
Добавлен:
18.08.2019
Размер:
217.6 Кб
Скачать

3.2.2 Роль случайного в поведении сложных систем

Сложные системы являются стохастическими. Их поведение изначально содержит в себе случайность и неопределенность и описывается при помощи уже известных нам понятий вероятность, энтропия и информация (см. раздел 2.1). Однако это не значит, что оно непредсказуемо вообще. За кажущимся на первый взгляд хаосом и беспорядком событий в таких системах обнаруживаются определенные закономерности. Но эти закономерности принципиально отличаются от закономерностей классической механики, ибо состояние стохастической системы задается не столько значениями ее параметров, сколько характером их распределения, который лишь указывает вероятность, с которой они могут принимать то или иное значение. А это значит, что возможных состояний системы при данном наборе условий - множество, но реализуются из них только наиболее вероятные.

Эмпирические наблюдения позволяют выявить основные тенденции (лат. tendentia - направленность) процесса развития сложных систем и предположить один из возможных его результатов. Моделирование поведения систем, основанное на многочисленных наблюдениях, учете законов их функционирования, характера протекающих в них процессов и явлений, анализе конкретных условий, применении математических методов, позволяет сделать более строгий научно обоснованный, достаточно точный кратковременный или долговременный прогнозы (греч. prognosis - предвидение, предсказание). Например, зная характер биохимических реакций в организме, мы можем прогнозировать течение болезни и управлять биохимическими процессами с помощью лекарственных препаратов, а следовательно, и выздоровлением больного. Знание законов генетики позволяет селекционеру получить виды и сорта с заданными свойствами. Зная социально-экономическую ситуацию, можно прогнозировать исход выборов, перспективу развития предприятия, тенденции в состоянии здоровья населения и т.д. Однако научный прогноз можно сделать лишь в рамках «горизонта предсказуемости». Никто не гарантирует стопроцентного совпадения предсказанного с тем, что будет в самом деле, так как это предсказание вероятностное и зависит от множества случайных событий, влияние которых порой трудно оценить и учесть.

Математическая вероятность ожидаемого результата будет определяться частотой появления N благоприятных случаев при стремлении общего числа наблюдений N к бесконечности.

P = lim N/N.

N

Применительно к термодинамическим системам используется термодинамическая вероятность W. Она определяется количеством возможных микросостояний, с помощью которых реализуется то или иное макросостояние системы, и связана с математической вероятностью соотношением: W= А/Р, где А есть некоторый множитель, зависящий от свойств системы. Смысл выражения, полученного Больцманом,

S= k ln W .

заключается в том, что: чем больше число микросостояний, реализующих данное макросостояние системы, тем выше ее энтропия, тем больше в ней хаоса.

Но у системы есть возможность снизить уровень энтропии. Чем больше у нее информации о внешних изменениях, тем больше и возможностей упорядочить свое состояние, например, путем изменения характера обмена веществ, поведенческих реакций, приспособительных возможностей. При этом количество информации, необходимой для реализации какого-либо состояния, можно выразить через его вероятность:

I= log2W

Информация об изменяющихся внешних условиях, поступающая в систему извне, с одной стороны дезорганизует ее и способствует увеличению энтропии, а с другой - «заставляет» систему перестраиваться в целях сохранения устойчивости. Благодаря этой перестройке {самоорганизации) система корректирует внутренние процессы, подстраивается (адаптируется) к новым условиям, стремится снизить внутреннюю энтропию, выбросив ее часть в окружающую среду. В этом плане поступающая информация является мерой порядка. Система как бы балансирует на грани между порядком и беспорядком, ее гомеостаз будет зависеть от количественного соотношения в системе «энтропия - информация». Таким образом, между случайностью, вероятностью, энтропией, информацией и организацией функционирования системы существует глубокая внутренняя связь.

Отрицательная энтропия (негэнтропия) в определенной мере тождественна информации. Процессы, способствующие снижению энтропии системы, получили название негэнтропийных. Такие процессы характерны не только для живых систем. Образование во Вселенной химических элементов, звездных и планетных систем, образование неорганических и органических веществ, кристаллов - это процессы негэнтропийные и связаны с упорядочением. Учитывая вышесказанное, можно записать своеобразный закон сохранения энтропии - информации. Он, как и другие законы сохранения, абсолютно точно выполняется только в идеализированных (закрытых) системах:

S + I = const.

Например, при кристаллизации жидкости каждая из ее частиц занимает определенное место в ячейке кристаллической решетки, возрастает упорядоченность их расположения, а, следовательно, возрастает и количество информации о системе. Но при этом ее энтропия уменьшается. При плавлении кристаллическая решетка разрушается, система разупорядочивается, ее энтропия возрастает, а количество информации уменьшается.

Обсуждая случайность, мы не учитывали воздействие на систему внешних факторов. А ведь именно они постоянно «подталкивают» ее к переходу на новую (и необязательно более сложную) ступень. Например, повышение температуры переводит твердое тело сначала в жидкость, а затем в пар. Похолодание климата на Земле привело к выделению из ветви семейства гоминид прямостоящих существ, которые в результате многомиллионнолетней эволюции вышли на уровень современного человека. Солнечное излучение способствовало самоорганизации неживого вещества и появлению живого на Земле и т.д.

Новые понятия и термины: закон сохранения энтропии-информации, прогноз, синхронный, тенденция.

Ведущие идеи:

- фундаментальная роль случайного в поведении сложных систем;

- взаимосвязь энтропии и информации как отражение соотношения хаоса и порядка;

- принципиальное отличие стохастических и динамических закономерностей.