
- •Часть 1
- •Глава I
- •§ 1. Статистическое распределение
- •§ 2. Статистическая независимость
- •§ 3. Теорема Лиувилля
- •§ 4. Роль энергии
- •§ 5. Статистическая матрица
- •§ 6. Статистическое распределение в квантовой статистике
- •§ 7. Энтропия
- •§ 8. Закон возрастания энтропии
- •Глава II
- •§ 9. Температура
- •§10. Макроскопическое движение
- •1) Производную по вектору надо понимать как вектор, составляющие которого равны производным по составляющим вектора, по которому произ- водится дифференцирование.
- •§11. Адиабатический процесс
- •§ 12. Давление
- •§ 13. Работа и количество тепла
- •§ 14. Тепловая функция
- •§ 15. Свободная энергия н термодинамический потенциал
- •§16. Соотношения между производными термодинамических
- •§ 16] Производные термодинамических величин
- •§ 17. Термодинамическая шкала температуры
- •§ 18. Процесс Джоуля — Томсона
- •§ 19. Максимальная работа
- •§ 20. Максимальная работа, производимая телом, находящимся во внешней среде
- •§ 20] Тело, находящееся во внешней среде 77
- •§ 21. Термодинамические неравенства
- •§ 22. Принцип Ле-Шателье
- •§ 23. Теорема Нернста
- •§ 24. Зависимость термодинамических величин от числа частиц
- •§ 25. Равновесие тела во внешнем поле
- •§ 26. Вращающиеся тела
- •§ 27. Термодинамические соотношения в релятивистской области
- •Глава III
- •§ 28. Распределение Гиббса
- •§ 29. Распределение Максвелла
- •§ 30. Распределение вероятностей для осциллятора
- •§ 31. Свободная энергия в распределении Гиббса
- •§ 32. Термодинамическая теория возмущений
- •§ 33. Разложение по степеням %
- •§ 34. Распределение Гиббса для вращающихся тел
- •§ 35. Распределение Гиббса с переменным числом частиц
- •§ 36. Вывод термодинамических соотношений из распределения Гиббса
- •Глава IV
- •§ 37. Распределение Больцмана
- •§ 38. Распределение Больцмана в классической статистике
- •§ 39. Столкновения молекул
- •§ 40. Неравновесный идеальный газ
- •§ 41. Свободная энергия больцмановского идеального газа
- •§ 42. Уравнение состояния идеального газа
- •§ 43. Идеальный газ с постоянной теплоемкостью
- •15. Определить максимальную работу, которую можно получить с по- мощью идеального газа при охлаждении от температуры т до температуры среды т0 при постоянном объеме.
- •§ 44. Закон равнораспределения
- •§ 43. Одноатомный идеальный газ
- •§ 46. Одноатомный газ. Влияние электронного момента
- •§ 47. Двухатомный газ с молекулами из различных атомов. Вращение молекул
- •§ 48. Двухатомный газ с молекулами из одинаковых атомов. Вращение молекул
- •§ 49. Двухатомный газ. Колебания атомов
- •§ 50. Двухатомный газ. Влияние электронного момента
- •§51] Многоатомный газ 169
- •§ 51. Многоатомный газ
- •§ 52. Магнетизм газов
- •Глава V
- •§ 53. Распределение Ферми
- •§ 54. Распределение Бозе
- •§ 55. Неравновесные ферми- и бозе-газы
- •§ 56. Ферми- и бозе-газы элементарных частиц
- •§ 56] Ферми- и бозе-газы элементарных частиц 185
- •§ 57. Вырожденный электронный газ
- •§ 58. Теплоемкость вырожденного электронного газа
- •§ 59. Магнетизм электронного газа. Слабые поля
- •§ 60. Магнетизм электронного газа. Сильные поля
- •§ 61. Релятивистский вырожденный электронный газ
- •§ 62. Вырожденный бозе-газ
- •§ 63. Черное излучение
- •Глава VI
- •§ 64. Твердые тела при низких температурах
- •§ 65. Твердые тела при высоких температурах
- •§ 66. Интерполяционная формула Дебая
- •§ 67. Тепловое расширение твердых тел
- •§ 68. Сильно анизотропные кристаллы
- •§ 69. Колебания кристаллической решетки
- •§ 70. Плотность числа колебаний
- •§ 71. Фононы.
- •§ 72. Операторы рождения и уничтожения фононов
- •§ 73. Отрицательные температуры
- •Глава VII
- •§ 74. Отклонение газов от идеальности
- •§ 75. Разложение по степеням плотности
- •§ 76. Формула ван-дер Ваальса
- •§ 77. Связь вириального коэффициента с амплитудой рассеяния
- •§ 78. Термодинамические величины классической плазмы
- •§ 79. Метод корреляционных функций
- •§ 80. Термодинамические величины вырожденной плазмы
- •1) В этом случае
- •Глава VIII
- •§ 81. Условия равновесия фаз
- •§ 82. Формула Клапейрона — Клаузиуса
- •§ 83. Критическая точка
- •§ 84. Закон соответственных состояний
- •Глава IX
- •§ 85. Системы с различными частицами
- •§ 86. Правило фаз
- •§ 87. Слабые растворы
- •§ 88. Осмотическое давление
- •§ 89. Соприкосновение фаз растворителя
- •§ 90. Равновесие по отношению к растворенному веществу
- •§ 91. Выделение тепла и изменение объема при растворении
- •§ 92. Растворы сильных электролитов
- •§ 93. Смесь идеальных газов
- •§ 94. Смесь изотопов
- •§ 95. Давление пара над концентрированным раствором
- •§ 96. Термодинамические неравенства в растворах
- •§ 97. Кривые равновесия
- •§ 98. Примеры диаграмм состояния
- •§ 99. Пересечение особых кривых поверхности равновесия
- •§ 100. Газ и жидкость
- •Глава X
- •§ 101. Условие химического равновесия
- •§ 102. Закон действующих масс
- •§ 103. Теплота реакции
- •§ 104. Ионизационное равновесие
- •§ 105. Равновесие по отношению к образованию пар
- •Глава XI
- •§ 106. Уравнение состояния вещества при больших плотностях
- •§ 107. Равновесие тел с большой массой
- •§ 108. Энергия гравитирующего тела
- •§ 109. Равновесие нейтронной сферы
- •Глава XII
- •§110. Распределение Гаусса
- •§ 110] Распределение гаусса 365
- •§ 111. Распределение Гаусса для нескольких величин
- •§ 113. Флуктуации в идеальном газе
- •§114. Формула Пуассона
- •§ 115. Флуктуации в растворах
- •§ 116. Пространственная корреляция флуктуации плотности
- •§ 117. Корреляция флуктуации плотности в вырожденном газе
- •§ 118. Корреляция флуктуации во времени
- •§ 119. Временная корреляция флуктуации нескольких величин
- •§ 120. Симметрия кинетических коэффициентов
- •§ 121. Диссипативная функция
- •§ 122. Спектральное разложение флуктуации
- •§ 123. Обобщенная восприимчивость
- •§ 123] Обобщенная восприимчивость 411
- •§ 124. Флуктуационно-диссипационная теорема
- •§ 125. Флуктуационно-диссипационная теорема для нескольких величин
- •§ 126. Операторное выражение обобщенной восприимчивости
- •§ 127. Флуктуации изгиба длинных молекул
- •Глава XIII
- •§ 128. Элементы симметрии кристаллической решетки
- •§ 129. Решетка Бравэ
- •§ 130. Кристаллические системы
- •§ 131. Кристаллические классы
- •§ 132. Пространственные группы
- •§ 133. Обратная решетка
- •§ 134. Неприводимые представления пространственных групп
- •§ 135. Симметрия относительно обращения времени
- •§ 136. Свойства симметрии нормальных колебаний кристаллической решетки
- •§ 137. Структуры с одно- и двумерной периодичностью
- •§ 138. Корреляционная функция в двумерных системах
- •§ 139. Симметрия по ориентации молекул
- •§ 140. Нематические и холестерические жидкие кристаллы
- •§ 141. Флуктуации в жидких кристаллах
- •Глава XIV
- •§ 142. Фазовые переходы второго рода
- •§ 143. Скачок теплоемкости
- •§ 144. Влияние внешнего поля на фазовый переход
- •§ 145. Изменение симметрии при фазовом переходе второго рода
- •§ 146. Флуктуации параметра порядка
- •§ 147. Эффективный гамильтониан
- •§ 148. Критические индексы
- •§ 149. Масштабная инвариантность
- •§ 150. Изолированные и критические точки непрерывного перехода
- •§ 151. Фазовый переход второго рода в двумерной решетке
- •§ 153. Флуктуационная теория критической точки
- •Глава XV
- •§ 154. Поверхностное натяжение
- •§ 155. Поверхностное натяжение кристаллов
- •§ 156. Поверхностное давление
- •§ 157. Поверхностное натяжение растворов
- •§ 158. Поверхностное натяжение растворов сильных электролитов
- •§ 159. Адсорбция
- •§ 160. Смачивание
- •§ 161. Краевой угол
- •§ 162. Образование зародышей при фазовых переходах
- •§ 1Б2] образование зародышей при фазовых переходах 581
- •§ 163. Невозможность существования фаз в одномерных системах
§ 7. Энтропия
Будем рассматривать замкнутую систему в течение времени, большого по сравнению с ее временем релаксации; тем самым подразумевается, что система находится в полном статистическом равновесии.
Проведем нижеследующие рассуждения сначала для квантовой статистики. Разделив систему на большое число макроскопических частей (подсистем), будем- рассматривать какую-либо одну из них. Пусть wn есть функция распределения этой подсистемы; для упрощения формул будем пока опускать у а>„ (и других величин) индекс, отличающий подсистемы. С помощью функции wn можно, в частности, вычислить распределение вероятностей для различных значений энергии Е подсистемы. Мы видели, что w„ может быть написано как функция только от энергии wn = w(E„). Для того чтобы получить вероятность W (E)dE подсистеме иметь энергию в интервале между Е и E+dE, надо умножить w(E) на число квантовых состояний с энергиями, лежащими в этом интервале; мы пользуемся здесь тем же представлением о «размазанном» энергетическом спектре, которое было введено в конце предыдущего параграфа. Обозначим посредством Г(Е) число квантовых состояний с энергиями, меньшими и равными Е; тогда интересующее нас число состояний с энергией между Е и E + dE можно написать в виде
dE atl>
а распределение вероятностей по энергии будет
W(E)=^W(E). (7,1)
Условие нормировки
"W(E)dE=l
J
означает геометрически, что площадь, заключенная под кривой W = W (Е), равна единице.
В соответствии с общими утверждениями, сделанными в § 1, функция W (Е) имеет чрезвычайно резкий максимум при Е — Е,
§71
энтропия 39
будучи сколько-нибудь заметно отличной от нуля лишь в непосредственной близости от этой точки. Введем «ширину» АЕ кривой W = W(E), определив ее как ширину прямоугольника, высота которого равна значению функции W (Е) в точке максимума, а площадь равна единице: _
W(E)bE=l. (7,2)
Принимая во внимание выражение (7,1), можно переписать это определение в виде _
ю(Ё)ДГ=1, (7,3)
тде _
дг = ^Ш.Д£ (7,4)
есть число квантовых состояний, соответствующее интервалу АЕ значений энергии. Об определенной таким образом величине АГ можно сказать, что она характеризует «степень размазанности» макроскопического состояния подсистемы по ее микроскопическим 'состояниям. Что же касается интервала АЕ, то по порядку величины он совпадает со средней флуктуацией энергии подсистемы.
Сделанные определения непосредственно переносятся в классическую статистику, но только вместо функции w(E) надо говорить о классической функции распределения р, а вместо АГ — об объеме ^участка фазового пространства, определяемом формулой
р(£)АрА?=1. (7,5)
Фазовый объем Ар Aq аналогично АГ характеризует размеры той области фазового пространства, в которой данная подсистема проводит почти все время.
Не представляет труда установить связь между АГ и Ар Ад при предельном переходе от квантовой к классической теории. '-Как известно (см. iii, §48), в квазиклассическом случае можно Остановить определенное соответствие между объемом какой-либо •Области фазового пространства и «приходящимся» на него числом квантовых состояний; именно, можно сказать, что на каждое квантовое состояние приходится в фазовом пространстве клетка ■с объемом (2nh)s (s—число степеней свободы системы). Поэтому ясно, что в квазиклассическом случае число состояний АГ можно написать в виде
(7'6)
где s—число степеней свободы данной подсистемы. Эта формула й устанавливает искомое соответствие между АГ и ApAq.,
Величину АГ называют статистическим весом макроскопического состояния подсистемы, а ее логарифм
S = lnAr (7,7)
называют энтропией подсистемы. В классическом случае энтропия определяется, соответственно, выражением
S = ln^i. (7,8)
Определенная таким образом энтропия, как и самый статистический вес, есть безразмерная величина. Поскольку число состояний ДГ во всяком случае не меньше единицы, то энтропия не может быть отрицательной. Понятие энтропии — одно из важнейших в статистике.
Уместно отметить, что если оставаться целиком на позициях классической статистики, то никакого понятия о «числе микроскопических состояний» вообще нельзя ввести, и мы были бы принуждены определить статистический вес просто как величину Ар Aq. Но эта величина, как и всякий объем фазового пространства, имеет размерность произведения s импульсов и стольких же координат, т. е. размерность s-й степени действия: (эрг-секу. Энтропия, определенная как \nApAq, имела бы при этом своеобразную размерность логарифма действия. Это значит, что при изменении единиц действия энтропия изменилась бы на аддитивную постоянную: если изменить единицу действия в а раз, то Ар Aq перейдет в as Ар Aq, a In Ар А^— в In Ар Aq -f s In а. Поэтому в чисто классической статистике энтропия представляет собой величину, определенную лишь с точностью до аддитивной постоянной, зависящей от выбора единиц. Однозначными величинами, не зависящими от выбора единиц, являются при этом лишь разности энтропии, т. е. изменения энтропии при том или ином процессе.
С этим обстоятельством и связано появление квантовой постоянной % в определении (7,8) энтропии для классической статистики. Лишь понятие о числе дискретных квантовых состояний, неизбежно связанное с отличной от нуля квантовой постоянной, позволяет ввести безразмерный статистический вес и тем самым определить энтропию как вполне однозначную величину.
Напишем определение энтропии в другом виде, выразив ее непосредственно через функцию распределения. Согласно (6,4) логарифм функции распределения подсистемы имеет вид
lnw(En) = a + p-En. Ввиду линейности этого выражения по Еп величина
\х\хю(Ё) = а.+$Е~ может быть написана и как среднее значение <1пш (£„)>. Поэтому энтропию 5 = 1пАГ = — \nw(E) (согласно (7,3)) можно написать в виде
5 = — <1п w (£„)>, (7,9)
т. е. можно определить энтропию как (взятое с обратным знаком) среднее значение логарифма функции распределения подсистемы. По смыслу среднего значения имеем
S = -2walnw„; (7,10)
п
это выражение можно написать в общем операторном виде, не зависящем от выбора системы волновых функций, с помощью которых определяются элементы статистической матрицы1):
5 = —Sp(wlni). (7,11)
Аналогичным образом в классической статистике определение энтропии может быть написано в виде
S = — <ln[(2n£)Jp]> = — \ р In [(2лАу р] dp dq. (7,12)
Вернемся теперь к замкнутой системе в целом, и пусть АГ1( АГв ... —статистические веса ее различных подсистем. Если каждая из подсистем может находиться в одном из АГв квантовых состояний, то этому, очевидно, соответствует
ДГ = ЦдГв (7,13)
а
различных состояний системы в целом. Эта величина называется статистическим весом, а ее логарифм—энтропией S замкнутой системы. Ясно, что
S = IX (7Д4)
а
т. е. определенная таким образом энтропия является величиной аддитивной: энтропия сложной системы равна сумме энтропии ее частей.
1)
Оператор In
w
в
соответствии с общими правилами надо
понимать как оператор, собственные
значения которого равны логарифмам
собственных значений оператора w,
а
собственные функции совпадают с
собственными функциями Последнего.
До сих пор мы предполагали, что замкнутая система находится в полном статистическом равновесии. Теперь следует обобщить сделанные определения на системы, находящиеся в произвольных макроскопических состояниях (неполных равновесиях).
Итак, предположим, что система находится в некотором неполном равновесии, и будем рассматривать ее в течение промежутков времени At, малых по сравнению со временем релаксации полного равновесия. Тогда для определения энтропии надо поступить следующим образом. Разделим мысленно систему на части, настолько малые, что их собственные времена релаксации оказались бы малыми по сравнению с промежутками времени At (напомним, что времена релаксации, вообще говоря, уменьшаются с уменьшением размеров системы). Такие подсистемы можно считать находящимися в течение времени А^ в некоторых своих частных равновесиях, описывающихся определенными функциями распределения. Поэтому к ним можно применить прежнее определение статистических весов ДГа и, таким образом, вычислить их энтропии Sa. Статистический вес АГ всей системы определяется затем как произведение (7,13) и, соответственно, энтропия 5 — как сумма энтропии Sa.
Подчеркнем, однако, что энтропия неравновесной системы, определенная таким образом как сумма энтропии ее частей (удовлетворяющих поставленному выше условию), не может быть теперь вычислена с помощью представления о термостате, без разделения системы на части. В то же время это определение вполне однозначно в том смысле, что дальнейшее разделение подсистем на еще более мелкие части не изменит значения энтропии, поскольку каждая подсистема уже находится сама по себе в своем «полном» равновесии.
Следует в особенности обратить внимание нэ роль времени в определении энтропии. Энтропия есть величина, характеризующая средние свойства тела за некоторый отличный от нуля промежуток времени At. Задав At, мы должны для определения S мысленно разделить тело на части, настолько малые, чтобы их собственные времена релаксации были малы по сравнению с At. Поскольку в то же время эти части и сами должны быть макроскопическими, то ясно, что для слишком малых интервалов At понятие энтропии вообще теряет смысл; в частности, нельзя говорить о мгновенном ее значении.
Дав, таким образом, полное определение энтропии, обратимся теперь к выяснению важнейших свойств и основного физического смысла этой величины. Для этого надо привлечь микроканоническое распределение, согласно которому для описания статистических свойств замкнутой системы можно пользоваться функцией распределения вида (6,6)
dw = const • б (Е—E0)-J\dTa.
а
Здесь dTa можно понимать как дифференциал функции Га (Еа), представляющей собой число квантовых состояний подсистемы С энергиями, меньшими или равными Еа; перепишем dw в виде
A» = const-6(£—Е0)П4т^£«- (7И5)
Статистический вес АГ0 по самому своему определению есть функция от средней энергии Еа подсистемы; то же относится и к Sa = Sa(Ea). Будем теперь формально рассматривать АГа и Sa как функции истинного значения энергии Еа (те же функции, которыми они в действительности являются от Еа). Тогда мы можем заменить в (7,15) производные dYa(Ea)jdEa отношениями АГа/Д£а, где АГа—понимаемая в указанном смысле функция от Еа, а АЕа — соответствующий ДГа интервал значений энергии (тоже функция от Еа). Наконец, заменив ДГв на eSai-Ea), получим
d^ = const-6(£—Я0)е*ПлТг. (7'16)
где S = 25e(£'a) — энтропия всей замкнутой системы, понимаемая как функция точных значений энергий ее частей. Множитель es, в экспоненте которого стоит аддитивная величина, есть очень быстро меняющаяся функция энергий Еа. По сравнению с этой функцией зависимость от энергий величины Ц АЕа совершенно несущественна, и поэтому с очень большой точностью можно заменить (7,16) выражением
cto = const-6(£ — E0)esl\dEa. (7,17)
а
Но dw, выраженное в виде, пропорциональном произведению дифференциалов всех dEa, есть не что иное, как вероятность всем подсистемам иметь энергии, лежащие в заданных интервалах между Еа и Ea-\-dEa. Таким образом, мы видим, что эта вероятность определяется энтропией системы как функцией энергий подсистем; множитель 8(Е—Е0) обеспечивает равенство суммы £ = 2-£а заданному значению Е0 энергии системы. Это свойство энтропии, как мы увидим в дальнейшем, лежит в основе ее статистических применений.
Мы знаем, что наиболее вероятными значениями энергий Еа являются их средние значения Еа. Это значит, что функция S(Elt Е2, ...) должна иметь при Еа = Еа максимальное возможное (при заданном значении суммы '£1Еа = Е0) значение. Но Еа есть как раз те значения энергий подсистем, которые соответствуют полному статистическому равновесию системы. Таким образом, мы приходим к следующему важнейшему выводу: энтропия замкнутой системы в состоянии полного статистического равновесия имеет наибольшее возможное (при заданной энергии системы) значение.
Наконец, укажем еще одно интересное истолкование функции S = S (Е)—энтропии какой-либо подсистемы или замкнутой системы (в последнем случае предполагается, что система находится в полном равновесии, в результате чего ее энтропия может быть выражена как функция от одной лишь ее полной энергии). Статистический вес ДГ = es {Е) по самому своему определению есть число уровней энергии, приходящихся на интервал АЕ, определенным образом характеризующий ширину распределения вероятностей по энергии. Разделив АЕ на ДГ, мы получим среднее расстояние между соседними уровнями в данном участке (участок вблизи значения Е) энергетического спектра рассматриваемой системы. Обозначив это расстояние как D (Е), можем написать:
D(E) = AE-e-S{EK (7,18)
Таким образом, функция S (Е) определяет густоту уровней энергетического спектра макроскопической системы. Ввиду аддитивности энтропии можно сказать, что средние расстояния между уровнями макроскопического тела экспоненциально убывают с увеличением его размеров (т. е. числа частиц в нем).