
книги из ГПНТБ / Приц, А. К. Принцип стационарных состояний открытых систем и динамика популяций
.pdfОсновываясь на этих положениях, в термодинамике были сформулированы ее основные законы: закон сохранения и пре вращения энергии, закон возрастания энтропии в изолирован ных системах и закон о недостижимости абсолютного нуля тем ператур.
возникает закономерный вопрос, являются ли живые систе мы системами, которые можно изучать методами обычной тер модинамики необратимых процессов? Можно ли характеризо вать состояние живой системы с помощью термодинамических функций: внутренней энергии Е, свободной энергии F, энтропииS и т. д.? Или с помощью аналогов этих функций?
Исходя из определения живой системы видно, что она не удовлетворяет ни одному из исходных положений термодинами ки. Действительно, она не является изолированной и никогда не приходит в состояние равновесия. Живая система не удовлетво ряет принципу транзитивности, включенному в понятие темпе ратуры.
‘Следовательно, живая система не удовлетворяет исходным положениям термодинамики в том виде, в котором они сформу лированы, и для применения методов термодинамики к живым системам требуется либо изменить сами методы, либо исходные положения.
Если считать неравновесное состояние живой системы стаци онарным, то живую систему можно характеризовать с помощью макроскопических параметров. В стационарном состоянии, точно так же, как и в состоянии неполного равновесия, неравновесная система может характеризоваться значениями макроскопиче ских термодинамических параметров. Для этого необходимо по стулировать квазистационарность неравновесной системы.
§ 3. Энтропия и информация
Все управляемые системы или отдельные элементы управля емых систем обмениваются между собой сигналами-наборами сведений о своем состоянии и состоянии окружающей среды. Пе редача сигналов может'быть задержана в запоминающих устрой ствах, что позволяет их разделить не только во времени, но и в пространстве. 'Говорят, что системы обмениваются между собой информацией. Что же такое информация, каково ее математиче ское выражение?
Главным свойством случайных событий является отсутствие полной уверенности в их наступлении. Событие может произойти или не произойти. Но до опыта существует неопределенность осуществления этого события.
За меру неопределенности случайного объекта х, который может иметь конечное множество состояний Xi, х%, . . . , хп осу
10
ществляемых с вероятностями ри р2 , . . - , р п , берется в соответ ствии с К. Шенноном [33], функция:
П
Sm{X) = Sn,(Pi «!•••' Рп) = — 2 P i ln Pi ■ ( ! —3— 1) i—i
Этот функционал Sm{X) носит название энтропии случайного объекта х. Сама шенноновская информационная энтропия пред ставляет собою среднее значение отрицательного логарифма ве роятности
Shi--- |
( 1 - 3 - 2 ) |
Энтропия
п
(1—3—3)
г= 1
если одно из значений Pi равно единице '(все остальные, следова тельно, равны нулю). Это соответствует отсутствию неопреде
ленности.
Максимальное значение энтропия Sm достигает, когда все ве роятности pi равны друг другу, т. е.
р 1— Рг— •■•— Рп —
Поэтому
Sm Ln п. |
( 1 - 3 - 4 ) |
Энтропия объекта XY, состоящего из двух независимых случай ных объектов X и У, является суммой их энтропий:
Sm= S in(X, Y ) = S m( X ) + S m(Y). |
( 1 - 3 - 5 ) |
Если же объект XY состоит из случайных объектов X и У и меж ду этими объектами существует статистическая зависимость, то энтропия случайного объекта XY является суммой энтропии Sui(X) одного объекта и условной энтропии 5Ш.^(У) другого:
Sm(X, |
Y ) = S IB( X ) + S nBe(Y), |
( 1 - 3 - 6 ) |
Sm(X, |
Y ) = S m( Y ) + S my(X). |
( 1 - 3 - 7 ) |
Условной энтропией случайных объектов X и У называется энт |
||
ропия S.x-(y) или SV(X), когда один из объектов находится в |
||
•определенном состоянии. |
|
соотноше |
При независимости объектов X и У друг от друга |
ния (1—3—6) и (1—3—7) переходят в (1—3—б).
Если |
к множеству состояний добавить любое число невоз |
|
можных |
состояний, то энтропия объекта не изменится: |
|
Sm (Pu Pi 1 • • • , Рп) == Sm,(pi , |
, Рп, 0 , . . . , 0) . (1 3 8) |
11
iB случае, если объект обладает непрерывным множествам со стояний х с вероятностями р(х), то вместо (1—3— 1) можно вы брать следующее выражение:
СО
(1—3—9)
—оо
Информация рассматривается лишь как уменьшение энтро пии и возникновение отрицательной энтропии:
(1—3— 10)
§4. Термодинамическая энтропия как функция состояния. Связь информационной энтропии и термодинамической
Начиная с 1948 г., когда К. Шенноном было сформулировано понятие информационной энтропии, явившейся основой для тео рии информации, сходство энтропии Шеннона и энтропии Больц мана-Тиббса (известной значительно раньше из статистической физики), являлось и является предметом большого внимания ряда исследователей.
Л. Бриллюэн [34, 35] провел наиболее полное исследование связи .между этими двумя энтропиями и сформулировал прин цип их взаимного соответствия, известный в настоящее время как негэнтропийный принцип информации. Для установления этого соответствия перейдем к хорошо известной категории ста тистической термодинамики.
Для нахождения связи между энтропией и состоянием систе мы, вернемся вновь к определению состояния системы. В моле кулярной теории, вместо ограниченного числа параметров, ха рактеризующих состояние системы, учитываются состояния от дельных молекул, из которых состоят элементы системы, и, сле довательно, вся система. .Если отдельная молекула имеет f сте пеней свободы, то для характеристики всей системы, состоящей из N молекул, необходимо знание 2/N молекулярных параметров. (/N координат и /N импульсов). .Поэтому термодинамика и мо лекулярная теория совершенно по разному подходят к опреде лению одного и того же состояния. Состояние, определяемое с помощью термодинамических параметров (давление, темпера тура, объем и т. д.), называется макросостоянием. Состояние же, заданное с помощью молекулярных параметров, называется микросостоянием.
Вследствии того, что молекулярным процессам присуща опре деленная хаотичность, микроскопические состояния характери зуются той или иной вероятностью их наступления. Следователь-
12
но, и макроскопические состояния также будут характеризо ваться определенной вероятностью их осуществления.
Связь между вероятностями микро- и макросостояний впер вые установлена Л. Больцманом [36]. При этом вовсе нет необ- - ходимости рассматривать только равновесные системы, но мож но рассматривать и неравновесные, если процессы изменения со стояния в них протекают достаточно медленно.
Одной из основных функций, характеризующих состояние си стемы в термодинамике, является энтропия системы S. 'Найдем связь между энтропией системы S, определяемой в термодина мике, и энтропией Sm, определяемой в теории информации. Для этого постараемся воспользоваться установленной связью меж ду молекулярной теорией, где применяются статистические ме тоды, и термодинамическим определением энтропии.
Больцман разработал метод ячеек. Пусть число молекул в си стеме равно N. Разобьем все пространство, в котором находятся молекулы системы, на элементарные ячейки. Так как состояние отдельной молекулы определяется заданием координат и им пульсов, то ячейка Больцмана представляется в виде элементар ного объема в пространстве координат и импульсов.
На ячейку накладываются два условия: объем ячейки дол жен быть достаточно мал, чтобы все находящиеся в ячейке мо лекулы характеризовались одними и теми же координатами и им пульсами, а также чтобы в каждой ячейке находилось достаточ но большое число частиц.
Пусть объем элементарных ячеек соответственно равен Аь А2, . . . , А и а суммарный объем равен А. Тогда вероятность того, что в первой ячейке будет находиться одна молекула, будет рав
Ai |
Ai |
\2 |
- «1 |
/ Ai |
\» |
т. к. рас |
на — , две молекулы |
— |
/ |
молекул ^ - у - |
J |
сматриваются независимые и одинаковые молекулы. Аналогич но можно найти вероятность того, что во второй ячейке находит ся п2 молекул, в третьей —>п3 молекул и т. д.
Если считать распределение молекул по ячейкам состоящим из ряда независимых событий, то вероятность одновременного нахождения в первой ячейке п молекул, во второй п2 молекул, в третьей — п3 молекул и т.. д., можно выразить формулой:
W = ( - г Г - ( - S - Г - ( - т Г - |
■ (1 -4 -1 ) |
Выражение (1—4— 1) представляет вероятность |
распределе |
ния молекул по состояниям, что дает вероятность определенного микросостояния.
'Перейдем теперь к нахождению вероятности макросостояния. Каждому микросостоянию соответствует только одно макро состояние, но каждому макросостоянию соответствует большое.
13
число микросостояний. Действительно, для данного микрососто яния безразличию, какие молекулы находятся в данной ячейке (все они одинаковы), важно сколько их в ней. Это предположе ние об одинаковости молекул позволило высказать Больцману предположение, что все микросостояния, характеризующиеся данным распределением молекул по ячейкам, равновероятны.
Из этого следует, что данное макросостояние можно осуще ствить множеством микросостояний, переставляя молекулы из одной ячейки в другую. Это означает, что вероятность данного макросостояния можно найти, складывая вероятности всех мик росостояний, с помощью которых это макросостояние реализу ется. Всего можно осуществить N! микросостояний, переставляя молекулы, но из них нужно исключить перестановки молекул в одной и той же ячейке, т. к. состояние частиц в ячейке считается одинаковым, и нового микросостояния их перестановка не дает. Поэтому для нахождения числа перестановок, соответствующих одному и тому же макросостоянию, необходимо N! разделить на произведение щ\п2\...пи\, где k — число всех ячеек. Отсюда, учитывая формулу (1—4— 1), вероятность данного макрососто яния будет равна:
W = |
( 1 - 4 - 2 ) |
К |
) |
причем |
|
к |
|
N |
( 1 - 4 - 3 ) |
i= i |
|
Если объем всех ячеек принять одинаковым, то |
|
А.=kXh, |
( 1 - 4 —4) |
где k — число всех ячеек и выражение (1—4—2) можно перепи сать так:
( 1 - 4 - 5 )
i—1
В связи с тем, что вероятность макросостояния по формуле |(1—4—5) найти трудно в связи с произвольностью числа яче ек k, Макс .Планк ввел относительную вероятность или стати стический вес — число способов, с помощью которых данное со стояние реализуется. Эта относительная вероятность называется термодинамической вероятностью и определяется отношением
14
вероятности данного состояния Wu к вероятности условно вы бранного нормального макросостояиия Wa. 'При этом под нормальным состоянием понимают такое состояние, когда все молекулы находятся в одном и том же микроскопическом состо янии, т. е. собираются в одну ячейку.
Г о = |
N! |
( 1 - 4 - 6 ) |
|
N! О! О! . . . |
|||
|
|
Тогда термодинамическая вероятность Wt будет равна:
И?т= — |
N' |
( 1 - 4 - 7 ) |
-------• |
П « г !
1= 1
Формула (1—4—7) утверждает, что термодинамическая ве роятность равна числу переста1Новок — комплексий, с помощью которых реализуется данное макроскопическое состояние. Так как число состояний любой физической системы конечно, то Wt, ха рактеризующее это число, несмотря на то, что оно может быть очень большим, может быть подсчитано.
Если исходить из определения энтропии, данного Шенноном
Pi^npi, |
(1—4—8) |
i |
|
где pi — вероятность i того состояния (исхода) |
системы, то лег |
ко показать, что логарифм термодинамической вероятности про порционален энтропии системы Sm, если
N,
где N, — число молекул в i-том состоянии, а N — полное число молекул.
Действительно, прологарифмируем выражение (1—4—7) для термодинамической вероятности:
In №т = 1п АП— 2 .1 п N ,!. |
(1—4—9) |
г |
|
с учетом формулы Стирлинга |
|
l n N ! « N l n N - N , |
(1—4— 10) |
формулу (1—4—9) можно переписать ,в виде: |
|
In WT = N In N -N — 2 n * ln Ni+ 2 |
N* = |
15
= N l n N - 2 N i lnN1= N ( - 2 - ^ Ь - ^ р ) • |
( 1 - 4 - 1 1 ) |
|
i |
i |
|
Сравнивая формулы (1—4— 11) и <(1—4—8), находим |
(1—4— 12) |
|
|
In H7T= N Sm. |
|
Выражение '(1—4— 12) |
показывает, что математически инфор |
мация равна логарифму термодинамической вероятности на од ну молекулу.
Умножая выражение (1—4— 12) на постоянную Больцмана k — 1,3810_1в эрг/град и считая N равным числу молекул в од
ном моле вещества (число Авогадро), |
получим формулу Больц |
|
мана, |
выведенную М. Планком, связывающую термодинамиче |
|
скую |
энтропию системы St с термодинамической вероятностью |
|
для одного моля: |
(1—4— 13) |
|
|
St = & In Wi. |
|
Сравнивая Шенноновскую энтропию |
с термодинамической эн |
тропией (энтропией Больцмана-Гиббса), получаем для энтропии Шеннона выражение через термодинамическую энтропию.
S = RSm, |
( 1 - 4 - 1 4 ) |
где |
|
R=AN |
(1—4— 15) |
газовая постоянная. |
|
Рассмотрим конденсацию пара. Пар обладает большей эн тропией по сравнению с жидкостью, т. к. его макроскопическое состояние может быть представлено большим числом микроско пических состояний.
Энтропия при конденсации уменьшается на величину Sm—Sn- Согласно Шеннону и Винеру, эта величина представляет собой информацию, содержащуюся в жидкости по отношению к пару,
она отрицательна, поскольку S>K<Sn- |
|
W |
(1—4— 16) |
I — Sm—Sn= k In— • |
|
Wn |
|
Таким образом, увеличение информации о системе уменьшает ее энтропию.
В зависимости от вида изучаемого объекта, значение посто янной R, связывающей шенноновскую энтропию и энтропию Больцмана—Гиббса, будет разным.
§ 5. Распределение Гиббса
Дальнейшее развитие идеи Больцмана нашли в работе Дж. Вилларда Гиббса [37], установившего связь между термо динамическими величинами и их статистическими аналогами.
Метод, предложенный Гиббсом, состоит в замене средних по времени, характеризующих состояния отдельной системы, сред ними по совокупности величин, характеризующих состояния ана
16
логичных систем с различными начальными состояниями в фик сированный момент времени.
Гиббс [37] определяет свой метод следующим образом: «Мы можем представить себе большое количество систем одинаковой природы, но различных по конфигурации и скоростям, которыми они обладают в данный момент, и различных не только беско нечно мало, но так, что охватывается каждая мысленная комби нация конфигураций и скоростей.
При этом мы можем поставить себе задачей не прослежи вать определенную систему через всю последовательность ее конфигураций, а установить, как будет распределено все число систем менаду различными возможными конфигурациями и ско ростями в любой требуемый момент времени, если такое рас пределение было задано для какого-либо момента времени».
Возможность такого подхода к описанию состояния справед ливо при условии, что каждая система обязательно побывает во всех состояниях. Это предположение было названо эргодической гипотезой. Говоря о новом методе статистического подхода, Шредингер [38] писал: «Более старым и более наивным является приложение этих результатов к реально существующим систе мам, находящимся в реальном физическом взаимодействии друг с другом, например, к молекулам газа, к электронам и т. д. Этот устаревший теперь метод применялся ранее Больцманом, Макс веллом и другими и заставлял каждый раз учитывать характер взаимодействий систем ансамбля, тем самым ограничивая воз можности изучения. Теперь мы рассматриваем тождественные системы как мысленные копии рассматриваемой системы, пред ставляющей собой «макроскопический объект на нашем лабора торном столе». Построив достаточно большую совокупность си стем и пренебрегая энергией взаимодействия между системами, получаем ансамбль независимых систем.
§ 6. Уравнение Гамильтона и элементы фазового пространства. Теорема Лиувилля
Состояние каждой частицы в системе в механике характери зуется с помощью координат и импульсов. Обозначим координа ту i — той частицы qu импульс р*. Если известны координаты частицы и ее импульс, тем самым можем легко определить ее энергию. Говорят, что состояние частицы определено, если опре делены ее координаты и импульсы.
Если система состоит из N частиц, а каждая частица имеет f степеней свободы, то для задания состояния всей системы надо 2/N обобщенных координат. Под обобщенными координатами подразумеваются и импульсы, и обычные координаты.
2 Зак. I324I
Г р с П
на, -но-ч
бибмИО
Пространство 2fN обобщенных .координат называется фазо вым пространством. Если известны 2fN параметра системы, то. состояние системы полностью определено.
Обобщенные координаты р* и р* связаны между собой с по мощью уравнений 'Гамильтона. Эти уравнения следующие:
dPi |
___ ДН |
6- |
1). |
|
( 1- |
||
|
dqi |
|
|
dcp___ dH |
6- |
2 ) |
|
dt |
( 1- |
||
dpi |
|
|
где H — функция Гамильтона, которая представляет собой пол ную энергию системы.
Состояние системы из N частиц, каждая из которых имеет f степеней свободы, изображается точкой в фазовом простран стве. Изменение состояния системы во времени будет изобра жаться фазовой траекторией. Действительно, исключая из урав нения (1—6— 1) и (1—6—2) параметр времени t, получим траекторию в фазовом пространстве. Если систему считать изо лированной, то уравнение
Е = Е(рь p2,...,P/N, pi , . . . , p/N) |
(1—6—3) |
представляет собой гиперповерхность в фазовом пространстве. Элементарный объем фазового пространства определяется
произведением |
|
dfi = dpi. . . dp/N dpi. . . dp/N. |
(1—6—4) |
Величина элементарного фазового объема определяется фи зическими соображениями. При выводе распределения Больцма на предполагалось, что величина фазового объема должна быть достаточно малой, чтобы все состояния частиц, попадающих в него, были одинаковыми (одинаковыми рг и р,). С другой сто роны, число частиц в каждом элементарном объеме должно, быть достаточно велико, чтобы можно было применить формулу Стирлинга. В этом заключалась противоречивость предположе ний теории Больцмана.
Из квантовой механики известно:
,dpdp= Л,
где h — постоянная Планка. Поэтому минимальное значение эле ментарного фазового объема для /=1 и N= 1 имеет вид:
dQ— h
Величина фазового объема определяется выражением:
J J d^i dpi - |
(1—6—5) |
18
iB связи с тем, что Q является функцией координат и импуль сов системы, то фазовый объем является функцией энергии си стемы, поскольку сама энергия является функцией координат и импульсов £2 — Q(E)
df i =. — |
dE. |
(1—6—6) |
dE |
|
|
Особенностью систем, состоящих из одинакового числа частиц, |
||
является то, что фазовый объем резко |
растет с увеличением |
|
энергии системы. |
|
|
Рассмотрим, меняется ли фазовый объем с эволюцией систе мы, т. е. меняется ли распределение систем по состояниям в этом объеме с течением времени.
Совокупности достаточно большого числа систем, тождест венных по своей природе, но имеющих различные начальные условия, образуют статистические ансамбли. Состояние каждой системы изображается точкой в фазовом пространстве. Так как системы имеют различные начальные условия, то ансамбль, со стоящий из одинаковых систем будет изображаться совокупно стью точек в фазовом пространстве. .'При этом, под системами можно подразумевать как отдельные частицы, так и их совокуп ности. Так как состояние каждой системы меняется со временем, а начальные значения их различны, то в фазовом пространстве образуется совокупность траекторий, отражающих изменение состояния всего ансамбля в фазовом пространстве.
Необходимо помнить, что исследуется лишь одна система, ко торая и является реально изучаемым объектом. Остальные си стемы ансамбля являются вспомогательными, представляя собой как бы копии данной системы, взятые в различных состояниях. Поэтому одинаковые, но различные по начальным условиям, од новременно взятые системы, представляют собой изображение различных состояний данной системы в фазовом пространстве. Изменения состояний системы во времени заменяется изучением поведения совокупности систем, взятых в различные моменты времени.
Не зная точно значений начальных условий, в статистической физике пользуются гипотезой о равновероятности различных на чальных условий. Это означает, что реальная система может с одинаковой вероятностью попасть в любую ячейку фазового пространства. Системы, которые составляют фазовый ансамбль, могут быть по разному распределены в фазовом пространстве. Рассмотрим объемное распределение фазовых точек в фазовом пространстве.
Пусть число систем в элементарном фазовом объеме равно:
dN = Q(«7i, . . . , 9/n, Pi |
, P/n) d£2, |
(1—6—7) |
2* |
|
19 |