
- •Термодинамика биологических систем Методическое пособие для самостоятельной работы студентов
- •Содержание
- •Термодинамика биологических систем
- •Основные термины термодинамики
- •Свободная энергия
- •Применение первого начала термодинамики к живым системам (организмам) (Различие термодинамических процессов в живой и неживой системах)
- •Закон гесса
- •Второй закон термодинамики
- •Второй закон термодинамики и живой организм.
- •Стационарное состояние
- •Теорема пригожина
- •Биофизические основы терморегуляции тепловой баланс организма
- •Список литературы
Второй закон термодинамики
Первый закон термодинамики позволяет определить количественные соотношения между различными формами энергии, которые принимают участие в данном процессе. Но этот закон ничего не говорит о возможности протекания данного процесса и о направлении, в котором он будет развиваться. Ответ на этот вопрос дает второе начало термодинамики.
Мы уже знаем, что тепловая энергия, образуясь в организме, представляет конкретную форму связанной энергии биологических систем, т. к. в условиях жизнедеятельности она не может быть преобразована ни в одну из форм работы, совершаемой организмами. Чем же определяется эта энергия?
Вспомним, что Wсвяз. зависит от степени неупорядоченности молекулярного движения, а ее количественной мерой является температура, поэтому Wсвяз пропорциональна Т. Однако величина связанной энергии в разных системах, имеющих одинаковую температуру, не всегда одинакова. Следовательно, степень неупорядоченности молекулярного движения зависит не только от температуры, но и еще от каких-то свойств системы.
Эти свойства Клаузиус (1865) выразил в виде коэффициента, который однозначно определяет значение Wсвяз и Т. Коэффициент принято обозначать буквой S и называть ЭНТРОПИЕЙ. С вводом энтропии зависимость связанной энергии системы от ее температуры выглядит так : Wсвяз= ST, откуда S=Wсвяз/T. Размерность энтропии – [Дж/К]. Энтропия – это физическая величина, характеризующая значение связанной энергии данной системы, приходящаяся на единицу температуры (1 К).
Говоря о запасе энергии в какой-либо системе, интересуются прежде всего тем, какую работу она может совершить. Ясно, что при этом следует учитывать не полную, а только свободную энергию.
Пищевые продукты важны для человека потому, что он получает при их усвоении свободную энергию для совершения работы.
В ванне горячей воды содержится больший запас энергии, чем в килограмме хлеба, но за счет нее человек, погруженный в ванну, не способен совершить работу, т. к. почти вся энергия является связанной. Следовательно, энергия в различных формах имеет разную практическую ценность, которая тем выше, чем большую часть этой энергии можно преобразовать в работу, т. е. чем меньше доля связанной энергии, мерой которой служит энтропия.
Следовательно, чем ниже энтропия системы, тем выше ценность свойственной ей внутренней энергии. Мы помним, что превращение свободной энергии в связанную называется диссипацией (рассеянием) энергии. Необходимо понять, что такими превращениями сопровождаются любые преобразования более ценной формы энергии в менее ценную.
Например, преобразования химической энергии, заключенной в биологических макромолекулах, в тепловую есть диссипация энергии.
В природе (в биофизике и биохимии) часто трудно предвидеть, как будут происходить те или иные явления в интересующих нас условиях. Поэтому необходим алгоритм, который дал бы возможность достоверно предсказать направление процессов в любом случае. Термодинамика позволяет сформулировать такой алгоритм, – он получил название второго начала термодинамики. Проще всего он формулируется для изолированных систем: «в изолированной системе общее изменение энтропии всегда положительно» S > 0.
Рассмотрим простой пример: пусть изолированная система состоит из двух тел «1» и «2», обладающих неодинаковой температурой Т1>Т2. Тело «1» отдает некоторое количество тепла Q, а тело “2” его получит (т. к. система изолирована, то никаких потерь тепла нет). Изменение энтропии «1-го» тела составит S= - Q/T, а для «2-го» тела S= + Q/T. Общее изменение энтропии Sобщ = S1 +S2, Sобщ= - Q/T1 + Q/T2= Q(1/T2 – 1/T1), т. к. Т1>Т2, то выражение в скобках положительно, и S > 0. Такой процесс соответствует второму началу термодинамики и происходит самопроизвольно.
Итак: энтропия – это функция состояния системы; S – это физическая величина, количественно характеризующая особенности молекулярного строения системы, от которых зависят энергетические преобразования в ней, в частности направление; S – это мера неупорядоченности системы.
Эту связь энтропии с молекулярным строением системы первым объяснил Л. Больцман в 1887 году. Он установил статистический смысл энтропии. Согласно Больцману (высокая упорядоченность имеет относительно низкую вероятность)
S = k ln W ,
где k – постоянная Больцмана k=R/Na= 1,37*10-23 Дж/К, W – термодинамическая вероятность состояния системы.
Термодинамической вероятностью называется число способов размещения частиц, т.е. число микросостояний, реализующих данное макросостояние. Из формулы Больцмана видно, что при повышении термодинамической вероятности возрастает и энтропия. Значит, всякая система, если на нее не действует внешняя сила, будет переходить из менее вероятного в более вероятное состояние (из порядка в хаос), т. е. направление всех реальных процессов в изолированной системе соответствует повышению термодинамической вероятности, а следовательно энтропия dS=dQ/T≥0 в необратимых процессах >0, в обратимых = 0.
Итак: в результате самопроизвольности процессов любая изолированная система стремится достичь состояния, обеспечивающего наибольший беспорядок, который обладает наибольшей вероятностью, т.е. состояния с максимальным значением энтропии S max.
Между S и W существует явная функциональная зависимость, то есть S=f(W) . Найдём вид этой функции:
Допустим имеются две термодинамических системы.
Энтропия и термодинамическая вероятность первой – S1 и W1
Энтропия и термодинамическая вероятность второй – S2 и W2
Вероятность и энтропия сложной системы, состоящей из этих двух систем – S и W
Общая энтропия равна S=S1+S2 , поскольку S=f(W), запишем это равенство таким образом f(W)=f(W1)+f(W2).
Общая вероятность сложной системы, в соответствии с теорией вероятности, равна произведению вероятностей, то есть W=W1W2, а значит f(W1W2)= f(W1)+f(W2).
Такому равенству удовлетворяет логарифмическая функция ln(W1W2)=ln(W1)+ln(W2)
Таким образом SlnW и окончательно S=klnW.