Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Приц, А. К. Принцип стационарных состояний открытых систем и динамика популяций

.pdf
Скачиваний:
7
Добавлен:
19.10.2023
Размер:
4.71 Mб
Скачать

Основываясь на этих положениях, в термодинамике были сформулированы ее основные законы: закон сохранения и пре­ вращения энергии, закон возрастания энтропии в изолирован­ ных системах и закон о недостижимости абсолютного нуля тем­ ператур.

возникает закономерный вопрос, являются ли живые систе­ мы системами, которые можно изучать методами обычной тер­ модинамики необратимых процессов? Можно ли характеризо­ вать состояние живой системы с помощью термодинамических функций: внутренней энергии Е, свободной энергии F, энтропииS и т. д.? Или с помощью аналогов этих функций?

Исходя из определения живой системы видно, что она не удовлетворяет ни одному из исходных положений термодинами­ ки. Действительно, она не является изолированной и никогда не приходит в состояние равновесия. Живая система не удовлетво­ ряет принципу транзитивности, включенному в понятие темпе­ ратуры.

‘Следовательно, живая система не удовлетворяет исходным положениям термодинамики в том виде, в котором они сформу­ лированы, и для применения методов термодинамики к живым системам требуется либо изменить сами методы, либо исходные положения.

Если считать неравновесное состояние живой системы стаци­ онарным, то живую систему можно характеризовать с помощью макроскопических параметров. В стационарном состоянии, точно так же, как и в состоянии неполного равновесия, неравновесная система может характеризоваться значениями макроскопиче­ ских термодинамических параметров. Для этого необходимо по­ стулировать квазистационарность неравновесной системы.

§ 3. Энтропия и информация

Все управляемые системы или отдельные элементы управля­ емых систем обмениваются между собой сигналами-наборами сведений о своем состоянии и состоянии окружающей среды. Пе­ редача сигналов может'быть задержана в запоминающих устрой­ ствах, что позволяет их разделить не только во времени, но и в пространстве. 'Говорят, что системы обмениваются между собой информацией. Что же такое информация, каково ее математиче­ ское выражение?

Главным свойством случайных событий является отсутствие полной уверенности в их наступлении. Событие может произойти или не произойти. Но до опыта существует неопределенность осуществления этого события.

За меру неопределенности случайного объекта х, который может иметь конечное множество состояний Xi, х%, . . . , хп осу­

10

ществляемых с вероятностями ри р2 , . . - , р п , берется в соответ­ ствии с К. Шенноном [33], функция:

П

Sm{X) = Sn,(Pi «!•••' Рп) = — 2 P i ln Pi ■ ( ! —3— 1) i—i

Этот функционал Sm{X) носит название энтропии случайного объекта х. Сама шенноновская информационная энтропия пред­ ставляет собою среднее значение отрицательного логарифма ве­ роятности

Shi---

( 1 - 3 - 2 )

Энтропия

п

(1—3—3)

г= 1

если одно из значений Pi равно единице '(все остальные, следова­ тельно, равны нулю). Это соответствует отсутствию неопреде­

ленности.

Максимальное значение энтропия Sm достигает, когда все ве­ роятности pi равны друг другу, т. е.

р 1— Рг— •■•— Рп

Поэтому

Sm Ln п.

( 1 - 3 - 4 )

Энтропия объекта XY, состоящего из двух независимых случай­ ных объектов X и У, является суммой их энтропий:

Sm= S in(X, Y ) = S m( X ) + S m(Y).

( 1 - 3 - 5 )

Если же объект XY состоит из случайных объектов X и У и меж­ ду этими объектами существует статистическая зависимость, то энтропия случайного объекта XY является суммой энтропии Sui(X) одного объекта и условной энтропии 5Ш.^(У) другого:

Sm(X,

Y ) = S IB( X ) + S nBe(Y),

( 1 - 3 - 6 )

Sm(X,

Y ) = S m( Y ) + S my(X).

( 1 - 3 - 7 )

Условной энтропией случайных объектов X и У называется энт­

ропия S.x-(y) или SV(X), когда один из объектов находится в

•определенном состоянии.

 

соотноше­

При независимости объектов X и У друг от друга

ния (1—3—6) и (1—3—7) переходят в (1—3—б).

Если

к множеству состояний добавить любое число невоз­

можных

состояний, то энтропия объекта не изменится:

Sm (Pu Pi 1 • • • , Рп) == Sm,(pi ,

, Рп, 0 , . . . , 0) . (1 3 8)

11

iB случае, если объект обладает непрерывным множествам со­ стояний х с вероятностями р(х), то вместо (1—3— 1) можно вы­ брать следующее выражение:

СО

(1—3—9)

—оо

Информация рассматривается лишь как уменьшение энтро­ пии и возникновение отрицательной энтропии:

(1—3— 10)

§4. Термодинамическая энтропия как функция состояния. Связь информационной энтропии и термодинамической

Начиная с 1948 г., когда К. Шенноном было сформулировано понятие информационной энтропии, явившейся основой для тео­ рии информации, сходство энтропии Шеннона и энтропии Больц­ мана-Тиббса (известной значительно раньше из статистической физики), являлось и является предметом большого внимания ряда исследователей.

Л. Бриллюэн [34, 35] провел наиболее полное исследование связи .между этими двумя энтропиями и сформулировал прин­ цип их взаимного соответствия, известный в настоящее время как негэнтропийный принцип информации. Для установления этого соответствия перейдем к хорошо известной категории ста­ тистической термодинамики.

Для нахождения связи между энтропией и состоянием систе­ мы, вернемся вновь к определению состояния системы. В моле­ кулярной теории, вместо ограниченного числа параметров, ха­ рактеризующих состояние системы, учитываются состояния от­ дельных молекул, из которых состоят элементы системы, и, сле­ довательно, вся система. .Если отдельная молекула имеет f сте­ пеней свободы, то для характеристики всей системы, состоящей из N молекул, необходимо знание 2/N молекулярных параметров. (/N координат и /N импульсов). .Поэтому термодинамика и мо­ лекулярная теория совершенно по разному подходят к опреде­ лению одного и того же состояния. Состояние, определяемое с помощью термодинамических параметров (давление, темпера­ тура, объем и т. д.), называется макросостоянием. Состояние же, заданное с помощью молекулярных параметров, называется микросостоянием.

Вследствии того, что молекулярным процессам присуща опре­ деленная хаотичность, микроскопические состояния характери­ зуются той или иной вероятностью их наступления. Следователь-

12

но, и макроскопические состояния также будут характеризо­ ваться определенной вероятностью их осуществления.

Связь между вероятностями микро- и макросостояний впер­ вые установлена Л. Больцманом [36]. При этом вовсе нет необ- - ходимости рассматривать только равновесные системы, но мож­ но рассматривать и неравновесные, если процессы изменения со­ стояния в них протекают достаточно медленно.

Одной из основных функций, характеризующих состояние си­ стемы в термодинамике, является энтропия системы S. 'Найдем связь между энтропией системы S, определяемой в термодина­ мике, и энтропией Sm, определяемой в теории информации. Для этого постараемся воспользоваться установленной связью меж­ ду молекулярной теорией, где применяются статистические ме­ тоды, и термодинамическим определением энтропии.

Больцман разработал метод ячеек. Пусть число молекул в си­ стеме равно N. Разобьем все пространство, в котором находятся молекулы системы, на элементарные ячейки. Так как состояние отдельной молекулы определяется заданием координат и им­ пульсов, то ячейка Больцмана представляется в виде элементар­ ного объема в пространстве координат и импульсов.

На ячейку накладываются два условия: объем ячейки дол­ жен быть достаточно мал, чтобы все находящиеся в ячейке мо­ лекулы характеризовались одними и теми же координатами и им­ пульсами, а также чтобы в каждой ячейке находилось достаточ­ но большое число частиц.

Пусть объем элементарных ячеек соответственно равен Аь А2, . . . , А и а суммарный объем равен А. Тогда вероятность того, что в первой ячейке будет находиться одна молекула, будет рав­

Ai

Ai

\2

- «1

/ Ai

т. к. рас­

на — , две молекулы

/

молекул ^ - у -

J

сматриваются независимые и одинаковые молекулы. Аналогич­ но можно найти вероятность того, что во второй ячейке находит­ ся п2 молекул, в третьей —>п3 молекул и т. д.

Если считать распределение молекул по ячейкам состоящим из ряда независимых событий, то вероятность одновременного нахождения в первой ячейке п молекул, во второй п2 молекул, в третьей — п3 молекул и т.. д., можно выразить формулой:

W = ( - г Г - ( - S - Г - ( - т Г -

■ (1 -4 -1 )

Выражение (1—4— 1) представляет вероятность

распределе­

ния молекул по состояниям, что дает вероятность определенного микросостояния.

'Перейдем теперь к нахождению вероятности макросостояния. Каждому микросостоянию соответствует только одно макро­ состояние, но каждому макросостоянию соответствует большое.

13

число микросостояний. Действительно, для данного микрососто­ яния безразличию, какие молекулы находятся в данной ячейке (все они одинаковы), важно сколько их в ней. Это предположе­ ние об одинаковости молекул позволило высказать Больцману предположение, что все микросостояния, характеризующиеся данным распределением молекул по ячейкам, равновероятны.

Из этого следует, что данное макросостояние можно осуще­ ствить множеством микросостояний, переставляя молекулы из одной ячейки в другую. Это означает, что вероятность данного макросостояния можно найти, складывая вероятности всех мик­ росостояний, с помощью которых это макросостояние реализу­ ется. Всего можно осуществить N! микросостояний, переставляя молекулы, но из них нужно исключить перестановки молекул в одной и той же ячейке, т. к. состояние частиц в ячейке считается одинаковым, и нового микросостояния их перестановка не дает. Поэтому для нахождения числа перестановок, соответствующих одному и тому же макросостоянию, необходимо N! разделить на произведение щ\п2\...пи\, где k — число всех ячеек. Отсюда, учитывая формулу (1—4— 1), вероятность данного макрососто­ яния будет равна:

W =

( 1 - 4 - 2 )

К

)

причем

 

к

 

N

( 1 - 4 - 3 )

i= i

 

Если объем всех ячеек принять одинаковым, то

А.=kXh,

( 1 - 4 —4)

где k — число всех ячеек и выражение (1—4—2) можно перепи­ сать так:

( 1 - 4 - 5 )

i—1

В связи с тем, что вероятность макросостояния по формуле |(1—4—5) найти трудно в связи с произвольностью числа яче­ ек k, Макс .Планк ввел относительную вероятность или стати­ стический вес — число способов, с помощью которых данное со­ стояние реализуется. Эта относительная вероятность называется термодинамической вероятностью и определяется отношением

14

вероятности данного состояния Wu к вероятности условно вы­ бранного нормального макросостояиия Wa. 'При этом под нормальным состоянием понимают такое состояние, когда все молекулы находятся в одном и том же микроскопическом состо­ янии, т. е. собираются в одну ячейку.

Г о =

N!

( 1 - 4 - 6 )

N! О! О! . . .

 

 

Тогда термодинамическая вероятность Wt будет равна:

И?т= —

N'

( 1 - 4 - 7 )

-------•

П « г !

1= 1

Формула (1—4—7) утверждает, что термодинамическая ве­ роятность равна числу переста1Новок — комплексий, с помощью которых реализуется данное макроскопическое состояние. Так как число состояний любой физической системы конечно, то Wt, ха­ рактеризующее это число, несмотря на то, что оно может быть очень большим, может быть подсчитано.

Если исходить из определения энтропии, данного Шенноном

Pi^npi,

(1—4—8)

i

 

где pi — вероятность i того состояния (исхода)

системы, то лег­

ко показать, что логарифм термодинамической вероятности про­ порционален энтропии системы Sm, если

N,

где N, — число молекул в i-том состоянии, а N — полное число молекул.

Действительно, прологарифмируем выражение (1—4—7) для термодинамической вероятности:

In №т = 1п АП— 2 .1 п N ,!.

(1—4—9)

г

 

с учетом формулы Стирлинга

 

l n N ! « N l n N - N ,

(1—4— 10)

формулу (1—4—9) можно переписать ,в виде:

 

In WT = N In N -N — 2 n * ln Ni+ 2

N* =

15

= N l n N - 2 N i lnN1= N ( - 2 - ^ Ь - ^ р ) •

( 1 - 4 - 1 1 )

i

i

 

Сравнивая формулы (1—4— 11) и <(1—4—8), находим

(1—4— 12)

 

In H7T= N Sm.

Выражение '(1—4— 12)

показывает, что математически инфор­

мация равна логарифму термодинамической вероятности на од­ ну молекулу.

Умножая выражение (1—4— 12) на постоянную Больцмана k — 1,3810_1в эрг/град и считая N равным числу молекул в од­

ном моле вещества (число Авогадро),

получим формулу Больц­

мана,

выведенную М. Планком, связывающую термодинамиче­

скую

энтропию системы St с термодинамической вероятностью

для одного моля:

(1—4— 13)

 

St = & In Wi.

Сравнивая Шенноновскую энтропию

с термодинамической эн­

тропией (энтропией Больцмана-Гиббса), получаем для энтропии Шеннона выражение через термодинамическую энтропию.

S = RSm,

( 1 - 4 - 1 4 )

где

 

R=AN

(1—4— 15)

газовая постоянная.

 

Рассмотрим конденсацию пара. Пар обладает большей эн­ тропией по сравнению с жидкостью, т. к. его макроскопическое состояние может быть представлено большим числом микроско­ пических состояний.

Энтропия при конденсации уменьшается на величину Sm—Sn- Согласно Шеннону и Винеру, эта величина представляет собой информацию, содержащуюся в жидкости по отношению к пару,

она отрицательна, поскольку S>K<Sn-

 

W

(1—4— 16)

I — SmSn= k In— •

Wn

 

Таким образом, увеличение информации о системе уменьшает ее энтропию.

В зависимости от вида изучаемого объекта, значение посто­ янной R, связывающей шенноновскую энтропию и энтропию Больцмана—Гиббса, будет разным.

§ 5. Распределение Гиббса

Дальнейшее развитие идеи Больцмана нашли в работе Дж. Вилларда Гиббса [37], установившего связь между термо­ динамическими величинами и их статистическими аналогами.

Метод, предложенный Гиббсом, состоит в замене средних по времени, характеризующих состояния отдельной системы, сред­ ними по совокупности величин, характеризующих состояния ана­

16

логичных систем с различными начальными состояниями в фик­ сированный момент времени.

Гиббс [37] определяет свой метод следующим образом: «Мы можем представить себе большое количество систем одинаковой природы, но различных по конфигурации и скоростям, которыми они обладают в данный момент, и различных не только беско­ нечно мало, но так, что охватывается каждая мысленная комби­ нация конфигураций и скоростей.

При этом мы можем поставить себе задачей не прослежи­ вать определенную систему через всю последовательность ее конфигураций, а установить, как будет распределено все число систем менаду различными возможными конфигурациями и ско­ ростями в любой требуемый момент времени, если такое рас­ пределение было задано для какого-либо момента времени».

Возможность такого подхода к описанию состояния справед­ ливо при условии, что каждая система обязательно побывает во всех состояниях. Это предположение было названо эргодической гипотезой. Говоря о новом методе статистического подхода, Шредингер [38] писал: «Более старым и более наивным является приложение этих результатов к реально существующим систе­ мам, находящимся в реальном физическом взаимодействии друг с другом, например, к молекулам газа, к электронам и т. д. Этот устаревший теперь метод применялся ранее Больцманом, Макс­ веллом и другими и заставлял каждый раз учитывать характер взаимодействий систем ансамбля, тем самым ограничивая воз­ можности изучения. Теперь мы рассматриваем тождественные системы как мысленные копии рассматриваемой системы, пред­ ставляющей собой «макроскопический объект на нашем лабора­ торном столе». Построив достаточно большую совокупность си­ стем и пренебрегая энергией взаимодействия между системами, получаем ансамбль независимых систем.

§ 6. Уравнение Гамильтона и элементы фазового пространства. Теорема Лиувилля

Состояние каждой частицы в системе в механике характери­ зуется с помощью координат и импульсов. Обозначим координа­ ту i — той частицы qu импульс р*. Если известны координаты частицы и ее импульс, тем самым можем легко определить ее энергию. Говорят, что состояние частицы определено, если опре­ делены ее координаты и импульсы.

Если система состоит из N частиц, а каждая частица имеет f степеней свободы, то для задания состояния всей системы надо 2/N обобщенных координат. Под обобщенными координатами подразумеваются и импульсы, и обычные координаты.

2 Зак. I324I

Г р с П

на, -но-ч

бибмИО

Пространство 2fN обобщенных .координат называется фазо­ вым пространством. Если известны 2fN параметра системы, то. состояние системы полностью определено.

Обобщенные координаты р* и р* связаны между собой с по­ мощью уравнений 'Гамильтона. Эти уравнения следующие:

dPi

___ ДН

6-

1).

 

( 1-

 

dqi

 

 

dcp___ dH

6-

2 )

dt

( 1-

dpi

 

 

где H — функция Гамильтона, которая представляет собой пол­ ную энергию системы.

Состояние системы из N частиц, каждая из которых имеет f степеней свободы, изображается точкой в фазовом простран­ стве. Изменение состояния системы во времени будет изобра­ жаться фазовой траекторией. Действительно, исключая из урав­ нения (1—6— 1) и (1—6—2) параметр времени t, получим траекторию в фазовом пространстве. Если систему считать изо­ лированной, то уравнение

Е = Е(рь p2,...,P/N, pi , . . . , p/N)

(1—6—3)

представляет собой гиперповерхность в фазовом пространстве. Элементарный объем фазового пространства определяется

произведением

 

dfi = dpi. . . dp/N dpi. . . dp/N.

(1—6—4)

Величина элементарного фазового объема определяется фи­ зическими соображениями. При выводе распределения Больцма­ на предполагалось, что величина фазового объема должна быть достаточно малой, чтобы все состояния частиц, попадающих в него, были одинаковыми (одинаковыми рг и р,). С другой сто­ роны, число частиц в каждом элементарном объеме должно, быть достаточно велико, чтобы можно было применить формулу Стирлинга. В этом заключалась противоречивость предположе­ ний теории Больцмана.

Из квантовой механики известно:

,dpdp= Л,

где h — постоянная Планка. Поэтому минимальное значение эле­ ментарного фазового объема для /=1 и N= 1 имеет вид:

dQ— h

Величина фазового объема определяется выражением:

J J d^i dpi -

(1—6—5)

18

iB связи с тем, что Q является функцией координат и импуль­ сов системы, то фазовый объем является функцией энергии си­ стемы, поскольку сама энергия является функцией координат и импульсов £2 — Q(E)

df i =. —

dE.

(1—6—6)

dE

 

 

Особенностью систем, состоящих из одинакового числа частиц,

является то, что фазовый объем резко

растет с увеличением

энергии системы.

 

 

Рассмотрим, меняется ли фазовый объем с эволюцией систе­ мы, т. е. меняется ли распределение систем по состояниям в этом объеме с течением времени.

Совокупности достаточно большого числа систем, тождест­ венных по своей природе, но имеющих различные начальные условия, образуют статистические ансамбли. Состояние каждой системы изображается точкой в фазовом пространстве. Так как системы имеют различные начальные условия, то ансамбль, со­ стоящий из одинаковых систем будет изображаться совокупно­ стью точек в фазовом пространстве. .'При этом, под системами можно подразумевать как отдельные частицы, так и их совокуп­ ности. Так как состояние каждой системы меняется со временем, а начальные значения их различны, то в фазовом пространстве образуется совокупность траекторий, отражающих изменение состояния всего ансамбля в фазовом пространстве.

Необходимо помнить, что исследуется лишь одна система, ко­ торая и является реально изучаемым объектом. Остальные си­ стемы ансамбля являются вспомогательными, представляя собой как бы копии данной системы, взятые в различных состояниях. Поэтому одинаковые, но различные по начальным условиям, од­ новременно взятые системы, представляют собой изображение различных состояний данной системы в фазовом пространстве. Изменения состояний системы во времени заменяется изучением поведения совокупности систем, взятых в различные моменты времени.

Не зная точно значений начальных условий, в статистической физике пользуются гипотезой о равновероятности различных на­ чальных условий. Это означает, что реальная система может с одинаковой вероятностью попасть в любую ячейку фазового пространства. Системы, которые составляют фазовый ансамбль, могут быть по разному распределены в фазовом пространстве. Рассмотрим объемное распределение фазовых точек в фазовом пространстве.

Пусть число систем в элементарном фазовом объеме равно:

dN = Q(«7i, . . . , 9/n, Pi

, P/n) d£2,

(1—6—7)

2*

 

19

Соседние файлы в папке книги из ГПНТБ