Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Курс лекций по общей биологии.DOC
Скачиваний:
1360
Добавлен:
30.05.2014
Размер:
1.06 Mб
Скачать

2. Сущность жизни

Вопрос о сущности жизни, о том, где проходит граница между живым и неживым является краеугольным камнем современной теоретической биологии. В данной лекции мы постараемся рассмотреть эту проблему сразу с нескольких позиций.

В 1964 г. наш соотечественник академик А.Н.Колмогоров, известный своими работами в области теории систем, сформулировал определение жизни, ставшее классическим: "Живые системы характеризуются непрерывными потоками вещества, энергии и информации, которые они способны воспринимать, хранить и перерабатывать".

С позиций теории систем любую, в том числе и биологическую, систему можно изучать в двух аспектах: в плане ее структуры; и в плане ее поведения. По своей структуре биосистемы, как правило, делятся на элементы (подсистемы), связанные между собой.

Поведение системы - эти фактически совокупность ее реакций в ответ на воздействия, поступающие из окружающей среды.

По структуре системы подразделяются на замкнутые, открытые и относительно изолированные. Замкнутые системы совершенно изолированы от окружающей среды, в них существует связь только между собственными элементами. В открытых системах - кроме внутренних связей имеются и внешние. В относительно изолированных системах также существуют внутренние и внешние связи. Внешние связи системы осуществляются либо через входы (сенсоры), либо через выходы (эффекторы).

Жизнь существует в виде открытых систем.

Академик В.А. Энгельгарт (1969), один из основоположников биоэнергетики, наш соотечественник, постулировал: "Коренное отличие живого от неживого выражается в способности живого создавать порядок из хаотического теплового движения молекул".

Мерой упорядоченности биосистем служит энтропия.

Впервые понятия энтропия и информация связал К. Шеннон в 1948. С его подачи энтропия стала использоваться как мера полезной информации в процессах передачи сигналов. Следует подчеркнуть, что под информацией Шеннон понимал сигналы нужные, полезные для получателя. Неполезные сигналы, с точки зрения Шеннона, это шум, помехи. По К. Шеннону, если сигнал на выходе канала связи является точной копией сигнала на входе то, с точки зрения теории информации, это означает отсутствие энтропии. Отсутствие шума означает максимум информации. Взаимосвязь энтропии и информации нашло отражение в формуле

HY1

Где Н – энтропия, Y – информация. Этот вывод количественно был обоснован Бриллюэном.

Для расчета энтропии Шеннон предложил уравнение, напоминающее классическое выражение энтропии, найденное Больцманом.

H  Pi log2 1/Pi  - Pi log2 Pi

где Н – энтропия Шеннона,Pi – вероятность некоторого события.

Попытаемся разобраться, что такое энтропия Шеннона и как она относится к термодинамическому понятию энтропии Клаузиуса и Больцмана.

Впервые понятие энтропии было введено Клаузисом в 1865 г. как функция термодинамического состояния системы. Эта функция имеет вид S=Q/T (Q – теплота, Т - температура). Классики не связывали энтропию с информацией. Анализ этой функции показал, что физический смысл энтропии проявляется, как чвсть внутренней энергии системы, которая не может быть превращена в работу. Клаузиус эмпирически получил эту функцию, экспериментируя с газами.

Л. Больцман (1872) методами статистической физики вывел теоретическое выражение энтропии S K lnW, где К – константа, W – термодинамическая вероятность (количество перестановок молекул идеального газа, не влияющее на макросостояние системы). Энтропия Больцмана трактуется как мера беспорядка,мера хаоса системы. Энтропии Больцмана и Клаузиуса тождественны, являются мерой вероятности состояния молекулярной системы. Сложилось мнение, что энтропия и беспорядок есть одно и тоже.

Больцман в 1886г. попытался с помощью энтропии объяснить, что такое жизнь. По мнению Больцмана, жизнь это явление, способное уменьшать

Выделяют энтропию "S" это термодинамическая энтропия и "H" - это информационная энтропия.

Обсудим термодинамическую энтропию "S". Согласно второму закону термодинамики под энтропией понимается процесс рассеивания энергии, заключающийся в переходе всех видов энергии в тепловую и равномерном распределении ее между всеми телами природы.

Приращение энтропии численно равно отношению количества теплоты, сообщенного системе (или отведенного от нее к термодинамической температуре системе) dS=dQ/T.

В живых природных системах выравнивания энергии не происходит. Еще в 1935 году Э.С. Бауэром сформулировал принцип устойчивого неравновесия живых систем: "Все живые системы никогда не бывают в равновесии и исполняют за счет свободной энергии постоянную работу против равновесия, требуемого законами физики и химии при существующих внешних условиях".

Однако это не значит, что биосистемы не подчиняются второму закону термодинамики.

Значительный вклад в развитие представлений об энтропии применительно к биосистемам внес австрийский физик, один из создателей квантовой механики, Э. Шредингер. Помимо понятия энтропии он использовал понятие негэнтропии - отрицательной энтропии и сформулировал следующее положение: "Живое остается живым только благодаря постоянному извлечению из окружающей среды отрицательной энтропии - негэнтропии. Ее источником является для растений - солнечный свет, для гетеротрофных организмов - вещества, синтезированные автотрофами". По теории Шредингера живые существа, используя негэнтропию, тем самым увеличивают положительную энтропию в окружающей среде.

На смену теории Шредингера пришла "теория содержательной информации". Согласно этой теории, биосистемы извлекают из окружающей среды не негэнтропию, а содержательную информацию, при этом информация окружающей среды не обедняется, подобно тому, как не обедняется содержание книги при многократном ее прочтении.

На основе этой теории Камшилов предложил рассматривать процесс индивидуального развития как процесс постепенного извлечения информации из окружающей среды.