Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Концепции современного естествознания Учебник_Г...rtf
Скачиваний:
18
Добавлен:
01.05.2025
Размер:
8.24 Mб
Скачать

11.6. Энтропия и информация в живых системах

Жизнь на Земле — это островки информации в безбрежном море энтропии окружающего мира.

Н. Винер

Нехаотические системы столь же типичны, как курица с зубами.

Форд

Информация для живого организма, является важным фак­тором его эволюции. Русский биолог И.И. Шмальгаузен [195] был одним из первых, кто обратил внимание на связь информа­

ции с энтропией и развил информационный подход к теорети­ческой биологии. Он же установил, что процесс получения, пе­редачи и обработки информации в живых организмах должен подчиняться известному принципу оптимальности. Примени­тельно к живым организмам можно считать, что «информация — это запомненный выбор возможных состояний». Такой подход к информации означает, что возникновение и передача ее живой системе — это процесс организации этих состояний, и, следова­тельно, в ней может происходить и процесс самоорганизации. Мы знаем, что эти процессы для живой системы могут приво­дить к ее упорядочению и, значит, к уменьшению энтропии. Система стремится уменьшить внутреннюю энтропию, отдавая ее во внешнюю среду.

Напомним, что энтропия также может считаться биологиче­ским критерием оптимальности и служит мерой свободы сис­темы:

чем больше состояний доступно системе, тем больше энтропия.

Если состояния имеют разные вероятности, то энтропия

/= 1

где Pj — вероятность /-го состояния, w — число состояний.

Если же все состояния одинаковы, то Р, = i и тогда

/■ = 1

что совпадает с формулой, приведенной в гл. 7.

Энтропия максимальна именно при равномерном распределе­нии вероятности, которое тем самым уже не может привести к дальнейшему развитию. Всякое отклонение от равномерности восприятия приводит к уменьшению энтропии. В соответствии с приведенными выражениями системы энтропию определяют как логарифм фазового пространства. Заметим, что экстремальный принцип энтропии позволяет находить устойчивое состояние системы.

Чем больше у живой системы информации о внутренних и внешних изменениях, тем больше у нее возможностей изменить свое состояние за счет обмена веществ, поведенческих реакций или адаптации к полученному сигналу, например, резкий вы­брос адреналина в кровь в стрессовых ситуациях, покраснение лица у человека, повышение температуры тела и т.д. Полученная организмом информация так же, как энтропия, влияет на про­цессы ее организации. Общее состояние системы, ее устойчи­вость (гомеостаз в биологии как постоянство структуры и функ­ций) будут зависеть от соотношения между энтропией и инфор­мацией. Для идеальных закрытых систем с учетом закона сохранения субстанций установлено эмпирическое обобщение:

количество информации I и энтропии S постоянно, т.е.

S + I = const,

откуда следует, что если возрастает количество информации в системе, то уменьшается ее энтропия, и наоборот.

Количество информации, необходимой для реализации со­стояния, можно также согласно одному из создателей теории информации американскому ученому К. Шенону выразить через вероятность. Мерой информации является соотношение

/ = -lg м> = lg Р, где w — число возможных состояний, Р — вероятность состояния.