Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Смирнова Н.А. Методы статистической термодинамики в физической химии учеб. пособие

.pdf
Скачиваний:
190
Добавлен:
27.10.2023
Размер:
20.12 Mб
Скачать

Определение вероятности как предела относительной частоты при бесконеч­ ном числе испытаний

к; (Л) = lim —

(1.2}

л -* со П

хотя и может показаться наиболее ясным с формально-математической точки зрения, вызывает серьезные возражения. Прежде всего, это определение — абстракция, которую невозможно связать с опытом; кроме того, при рассмотре­ нии бесконечного числа испытаний возникают трудности в формулировке усло­ вия устойчивости частот. Бесспорно, однако, что чем больше число испытаний, тем с большей точностью можно приравнять относительную частоту и вероят­ ность.

Формальное

определение

вероятности

и

ее оценка упрощается,

если задача

сводится в

ее основе

к

рассмотрению равно­

вероятных попарно несовместимых событий (события несовместимы, если они не могут появиться одновременно).Общее число / возможных результатов испытания предполагается конечным; все элементарные события попарно несовместимы и равновозможны. В некоторых m случаях из / происходит событие А (событие А может быть элементар­

ным или

представлять объединение, сумму элементарных

событий).

Вероятность

w (А) события А определяется как отношение числа

воз­

можных

результатов

испытания,

благоприятствующих событию

А,

к числу всех возможных результатов

испытания:

 

 

 

 

 

w(A)

=

- y

 

(І.З)

(классическое

определение вероятности).

 

 

Так, при

бросании

игральной

кости имеется 6 равновероятных

исходов,

что

можно утверждать на основании симметрии

игральной

кости. Только один из исходов отвечает выпадению данного числа, допустим пяти. Отсюда делается заключение, что вероятность выпа­ дения определенного числа при бросании кости равна 1/6.

Утверждение о равной вероятности различных исходов нередко, как и в только что рассмотренном случае игральной кости, основы­ вается на учете симметрии системы, над которой производятся испы­ тания. Иногда же обосновать равновероятность различных исходов оказывается весьма затруднительным, не говоря уже о том, что не всякая совокупность образована равновероятными событиями. По­ этому классическое определение вероятности (1.3) имеет, безусловно, ограниченную применимость. Во многих случаях, однако, оно чрез­ вычайно полезно.

Соотношение (1.3) является одним из основных в статистической физике при оценке вероятностей. Возможность применения его обус­ ловлена тем, что априорно допускаются равные вероятности некото­ рых элементарных событий.

Случайными событиями могут быть различные состояния системы. Определим состояние системы некоторым параметром X. Если ве­ личина X является переменной, значение которой зависит от случая, и если для нее существует распределение вероятностей, т. е. опреде­ ленная зависимость вероятности от величины X, то величину X на-

10

зываютслучайной (вероятностно-случайной). Случайными могут быть различные физические величины (энергия, число частиц и др.) в за­ висимости от того, какой комплекс условий для системы задан. Вообще говоря, некоторая физическая величина обнаруживает случайные свойства тогда, когда заданный комплекс условий не определяет рас­ сматриваемую величину однозначно; имеются еще некоторые неучтен­ ные факторы, под влиянием которых эта величина может изменяться. Однако утверждение о том, что величина является вероятностно-слу­ чайной, не сводится только к констатации неполноты знаний о систе­ ме и ее взаимодействии с окружением. В этом утверждении заключено также положительное содержание, не являющееся очевидным и вскрывающее качественные особенности величины. Действительно, мы допускаем определенное распределение вероятностей для величи­ ны, подразумеваем устойчивость частот появления различных ее значений при испытаниях и отсутствие правила игры. Свойства эти определяют специфику вероятностно-случайных величин, они далеко не очевидны, и анализ их, в частности изучение причин устойчивости частот, представляет чрезвычайно трудную теоретическую задачу.

Случайная величина может быть дискретной и непрерывной. Дискретной (прерывной) называют случайную величину, которая

может принимать отдельные изолированные значения с определен­ ными вероятностями.

Число

допустимых значений хъ

xt>...*

дискретной величины X

может быть конечным и бесконечным. Значениям хг

xt...

отвечают,

соответственно,

вероятности

появления

wlt

wt, ....

Зависимость

wt = f{xt),

где / — некоторая функция,

характеризует

распределение

вероятностей для случайной величины X.

Согласно сказанному ранее,

вероятность

wt

определяется

через относительную частоту

появления

состояния

і

при большом числе

измерений. Эту вероятность можно

связать также с долей времени - у , в течение которого система при

измерениях находилась в і-м состоянии, при значении случайной ве­ личины X ХІ (здесь t — общее время наблюдения над системой, tt — время, в течение которого система находилась в t'-м состоянии);

величина' — , вообще говоря, будет тем ближе к величине wit чем

больше время наблюдения.

Непрерывной называют случайную величину, которая может при­ нимать все значения из некоторого конечного или бесконечного про­ межутка.

Число возможных значений непрерывной случайной величины бес­

конечно.

 

 

 

X

 

Для

непрерывной

величины

можно определить вероятность

dw(x), того, что эта

величина

имеет значение, заключенное в опреде­

ленном

интервале

х

<J X

х +

dx.

Вероятность заданного интер-

* Большими буквами X, У обозначаем случайные величины; малыми бук­ вами X, у — значения, которые они принимают. В последующих главах, однако, специальные обозначения для случайных величин использовать не будем.

11

вала состояний системы зависит от значения х и пропорциональна ве­ личине интервала dx:

dw(x)=f(x)dx,

(1.4)

где f(x) — функция величины х, называемая плотностью распределе­

ния вероятностей [для этой функции часто используют также

обозна­

чение р{х)]*.

 

По определению,

 

dw (х)

 

№ = , - dx~

(1-5)

есть вероятность для системы находиться в заданном интервале сос­ тояний, отнесенная к единичному интервалу состояний. Величина

1

О-а

О

6

 

X

Рис. 1.

Равномерное

рас­

Рис. 2. Экспоненциальное распре-

пределение на отрезке

ab

деление f(x) = а е~ах.

f(x) действительно имеет смысл плотности. Интервал dx в выражениях (1.4) и (1.5) принимается положительным; величина f(x), следователь­ но, должна быть не отрицательной:

/ ( * ) > 0 .

(1.6)

Величина f(x) определяет характер зависимости вероятности от зна­ чения случайной величины. Приведем некоторые примеры наиболее часто встречающихся распределений.

1. Равномерное распределение для величины х в интервале ab:

t w Л const^ 0 при а<х « Ь

Л О при X < а и X > Ъ

(рис 1).

* В статистической физике наряду с термином «плотность распределения вероятностей» для функции f(x) широко используется термин «функция распре­ деления». Следует, однако, иметь в виду, что в теории вероятностей под функцией

X

— вероят-

распределения обычно понимают величину F(x) — ^(x)dx = w(X<x)

— 00

 

ность того, что случайная величина X имеет значение, не превышающее х (ино­

гда величину F(x) называют интегральной функцией распределения

в отличие

от f(x) — дифференциальной функции распределения). В литературе

по статис­

тической физике под функцией распределения всегда понимают плотность рас­ пределения вероятностей f(x). В настоящей книге термин «функция распределе­ ния» будет употребляться именно в таком смысле.

12

2. Экспоненциальное распределение (0 < ; х <^ оо):

f(x)=Ce~ax,

(1.8)

где С и а — постоянные; а > 0. Плотность распределения

вероятнос­

тей, определяемая формулой (1.8), экспоненциально убывает с ростом

х; при x-+oof(x)->0

(рис. 2).

 

 

3. Нормальное

(гауссово)

распределение:

 

 

f(x)

= Се~ а і х - т ) \

(1.9)

г д е о о ^ х - г ^ о о ;

С, m п

а — постоянные, а > 0 .

Кривая f{x),

заданная формулой Гаусса, является симметричной относительно пря­

мой X = т\ максимальное

значение функция принимает при х = т;

при х - ^ і о о / )^0 (рис.

3).

О т л -3 -2 ~1 0 1 2 3 к

а

 

 

 

 

 

 

б

 

Рис.

3.

Нормальное

распределение:

a - f (х)

= 1/

е ~ а

(х-т)1 ;

« =

- — [ с м . (1.54)1;

 

'

Т"

 

 

 

2 (Длг)2

б-f

(X) =Л/-~

е-ах"~;

а =

~

[см . (1.55)]

 

 

 

У %

 

2х>

 

Формула Гаусса широко используется при обработке результатов измерений; ею описывается распределение ошибок при измерениях?

Часто встает задача оценки вероятностей для некоторой функции случайной величины у = F(x).

dw(y)=<t(y)dy,

(1.10)

где dw(y) — вероятность того, что функция имеет значение в инте­ рвале от у до у + dy; <р(г/) плотность распределения вероятностей величины У. Требуется установить связь между ф(#) и плотностью распределения f(x) для величины X. Наиболее простая зависимость наблюдается в том случае, если функция F(x) является монотонно, воз­ растающей во всей области изменения х. Тогда каждому интервалу Ах = х2—хх взаимно однозначно соответствует некоторый интервал Ay=F(x^—F(x1) (знаки Ах и д у совпадают). Поэтому вероятности для

13

случайных величин X и F иметь значения в соответствующих интер­ валах равны между собой и

f(x)dx = ^(y)dy.

(1.11)

.Таким образом,

dx

 

? ( < / ) = / «

0-12)

Если функция у — F(x) монотонно убываете ростом х, то также име­

ется взаимно однозначное соответствие между

интервалами Ах иДг/,

но знаки этих приращений противоположны. Так как плотность рас­ пределения вероятностей ц>(у) и величина dy в формуле (1.10) должны быть положительны, следует записать:

f(x)dx = <f(y)\dy\

(1.13)

и

?(*)=/(*)

dx

(1.14)

dy

Случайная величина может быть многомерной, так что значения ее распределены в пространстве двух, трех или более измерений. Примером двумерной случайной величины служит точка попадания в

мишень (случайная величина

определяется координатами х и у).

Величина

 

 

dw(x,

y)=f(x, у) dxdy

(I-15)

определяет вероятность того, что точка на плоскости,

изображающая

случайную величину, попадет в прямоугольник, внутри которого абс­ цисса имеет значение от х до х + dx, а ордината — от у до у + dy.

§ 2. Сложение вероятностей. Условие нормировки вероятностей

Событие, состоящее в наступлении хотя бы одного из событий — А или В, называют суммой этих событий и обозначают А + В. Если события A ѴІ В несовместимы, т. е. не могут произойти оба вместе, то,

как нетрудно показать, вероятность суммы событий равна

сумме ве­

роятностей отдельных событий:

 

W(A + В) =w(A) +w(B).

(1.16)

Равенство (1.16) представляет запись теоремы сложения вероятностей. Этой теореме может быть дана следующая словесная формулировка:

вероятность нахождения

системы в одном из двух взаимно исключаю­

щих друг друга

состояний

равна сумме

вероятностей нахождения сис­

темы в каждом

из состояний. Теорема

обобщается на случай любого

числа несовместимых событий.

Следствием теоремы сложения вероятностей является условие нор­ мировки:

2 ^ = 1,

<Х -1 7 >

•И

 

где суммирование проводится по всем возможным состояниям системы (при испытаниях с достоверностью, т.е. с вероятностью, равной еди­ нице, находим систему в каком-либо состоянии).

Вероятность того, что непрерывная случайная величина X имеет значение в интервале между а и Ь, равна

ь

w (а < X < Ь) = J / (х) dx.

(I.18)

а

 

Условие нормировки непрерывной случайной величины

записывается

в виде

 

j dw (х) = j / (х) dx = 1;

(1.19)

интегрирование выполняется по всем возможным значениям перемен­ ной X. Условие нормировки двумерной непрерывной случайной ве­ личины следующее:

y)dxdy = l,-

(1.20)

где интегрирование проводится по всем значениям переменных х и у. Из теоремы сложения вероятностей вытекает, что интегрирование величины dw (х, у) = <f(x, y)dxdy по всем значениям переменной у дает вероятность того, что значение случайной величины X заключено в интервале от х до х + dx (значение случайной величины Y при этом

может быть

любым):

 

 

 

dw(x)=

y)dyy}dx.

(1.21)

Плотность

распределения версятностей величины

X определится как-

 

/ M = J <Р (*. У) dy.

 

Аналогичные выражения могут быть получены для dw(y) и f(y).

§ 3. Умножение вероятностей. Статистическая независимость

Допустим, что два события А и В имеют некоторую вероятность произойти совместно. Событие, состоящее в совместном наступлении, обоих событий А м В, называют произведением этих событий и обо­ значают AB.

Если между событиями есть связь, то появление одного события

(В) может изменить вероятность появления другого события (А) по сравнению с величиной, характеризующей вероятность появления изо­ лированного события А, когда никаких ограничений, кроме условий

S, не наложено. Дл я описания взаимозависимых

событий

вводят

условные

вероятности. Так, w (А/В) — вероятность

события

А прц

условии,

что событие В произошло. Вероятность того, что события

А и В будут

оба наблюдаться

(вероятность произведения событий

AB), равна,

согласно теореме

умножения,

 

 

 

 

w (AB) =w{Ä)w

(В/А) = w (В) w (А/В),

(1.22)

І5

т. е. вероятность

произведения

двух

событий

равна

произведению ве­

роятности

одного

из этих событий

на условную вероятность

другого

(условие состоит в том, что предварительно

произошло одно из рас­

сматриваемых событий).

 

 

 

 

 

События

А и В являются статистически

независимыми, если ве­

роятность

наступления одного

события не зависит

от того,

прои­

зошло другое

событие или нет. В случае статистической независимос­

ти событий А и В наступление события В не изменяет вероятности со­

бытия А и наоборот; имеют место

равенства:

 

w(A/B)

=w(A);

(1.23)

w(B/A)=w(B)

(1.24)

(свойство независимости событий взаимно: если

А не влияет на В,

то и В не влияет на А).

 

 

Для статистически независимых событий, согласно (1.22)—(1.24),

w{AB) =w{A)w(B).

(1.25)

Теорема умножения в данном случае может быть сформулирована сле­ дующим образом: вероятность произведения двух независимых событий равна произведению вероятностей этих событий.

Пусть параметры X и У определяют состояния двух невзаимодейст­ вующих систем и являются случайными величинами. Если состояния

системы

дискретны, теорема умножения

вероятностей

запишется

в виде

равенства:

 

 

 

 

 

 

w {xi,

yK)=w (ХІ) w (ук),

 

(1.26)

где w {ХІ, yK) — вероятность

того, что одна

система находится

в і-м

состоянии, определяемом параметром X = хи

и одновременно

дру­

гая система находится вк-ом состоянии, характеризуемом

параметром

У = ук\

w(xt)—вероятность

і-го состояния

для

первой системы

(сос­

тояние второй системы при этом может быть любым); w (ук) —веро­ ятность /с-го состояния для второй системы (состояние первой системы может быть любым).

Таким образом, вероятность того, что одновременно первая система находится в і-м состоянии, а вторая в к-м, равна произведению ве­ роятностей этих состояний для отдельных систем, если последние статистически независимы. Справедливо и обратное положение: если выражение для вероятности состояния сложной системы распадается на отдельные сомножители, каждый из которых зависит от состояния только одной части системы, то эти части системы независимы. Со­ множители пропорциональны (равны) вероятностям состояния соот­ ветствующих частей.

В случае непрерывного ряда состояний системы (X и У — непре­ рывные случайные величины) теорема умножения выражается равен­ ствами:

dw (X, у) = dw (х) dw (у) = /х (х) / 2 {у) dxdy,

(1.27)

где dw (х, у) — вероятность того, что одновременно первая система

16

имеет значение параметра X в интервале от х до х + àx, а вторая система — значение параметра У в интервале от у до у + Интервал состояний для сложной системы определяется как произведение интер­ валов состояний для составляющих систем. В рассматриваемом случае это dxdy. По определению,

dw(x, у) =f(x,

у) dxdy,

(1.28)

где f{x, у) — плотность распределения вероятностей состояний для сложной системы. Следствием равенств (1.27) и (1.28) является:

/(*, У) = М * ) М У ) .

(1-29)

что наряду с равенством (1.27) представляет запись теоремы умно­ жения вероятностей для независимых систем, состояния которых изме­ няются непрерывным образом.

§ 4. Средние значения случайных величин

Математическое ожидание (среднее статистическое) дискретной случайной величины определяют как сумму произведений всех ее возможных значений на вероятности этих значений:

 

г

M(X)^^Xiwh

(1.30)

где М(Х) — математическое ожидание величины X; г — число воз­ можных значений X (если г = оо, то дополнительно налагается тре-

бование абсолютной сходимости ряда TiXtWi). і=і

Математическое ожидание является той постоянной, около кото­

рой колеблются средние арифметические значения

измеряемой вели-

 

 

г

 

 

 

£ xfli

 

чины в различных

сериях испытаний С рР ифм =

, где и —

общее число измерений, nt — число измерений, в которых

наблюда­

лось значение xt).

В дальнейшем будем употреблять термин

«среднее

статистическое» или просто «среднее», имея в виду математическое

ожидание случайной величины, и примем

обозначение

х ~ М(Х).

В формулах для численных характеристик

случайных

величин мы

будем далее использовать один и тот же буквенный символ для обо­ значения случайной величины и принимаемых ею значений, как это делается в формулах статистической термодинамики. Таким образом, запишем:

X —

(1.31)

Для расчета средней статистической величины х требуется знать ве­ роятности всех возможных состояний систем^г^-р ":7Т^~"~7Г~~у

о 17-.

Среднее статистическое (математическое ожидание) непрерывной случайной величины определяется как интеграл

1= j xdw (х) = J xf (X) dx,

(I.32)

где интегрирование проводится по всем возможным значениям лѵ Расчет X может быть выполнен, если известна функция f(x), т. е. плотность распределения вероятностей.

Среднее значение некоторой функции А от случайной величины X найдем по формуле

I = ^A(x)f(x)dx.

(1.33)

Среднее значение функции двух непрерывных случайных величин есть

 

 

А

= J j А (х,

у) f (х,

у)

dxdy.

 

 

 

Сформулируем две теоремы о средних.

 

 

 

 

1. Среднее

значение

суммы случайных

величин

равно сумме

средних

значений

этих

величин:

 

 

 

 

 

 

 

 

 

 

(х-\-у)

= х +

у.

 

 

 

(1.34)

Покажем,

что это так, рассматривая

случай

дискретных величин.

Пусть для любого состояния системы (или двух систем) переменные

X и У определены. Переменные могут быть зависимыми или неза­

висимыми. Набор xlt

Xi,...—возможные

значения случайной ве­

личины

X; w(xx),

w(xt),...—вероятности

этих

значений;

уи ...

ук... — значения случайной величины У,

которым

отвечают

вероят­

ности ау(#і),

w(yi:),

... соответственно. Через

w

(xh ук) обозначаем

вероятность того, что одновременно наблюдаются значение xt

для одной

случайной величины и значение y-t для другой.

 

 

По определению статистического

среднего

 

 

(х + у) = 2to+

Ук) w (*/> ук) = 22X i

Wto-У к )

+ 2 2 ^to-Ук

і, к

 

і

к

 

і

к

 

= 2

 

xt 2 w (xi, ук)

+ 2

Ук 2 w

to. Ук)-

(I-35)

 

і

к

к

i

 

 

 

Вероятность того, что для переменной X будет наблюдаться зна­ чение тогда как значение переменной У при этом может быть лю­ бым, равна согласно теореме сложения вероятностей

«К*/) = У^Ш)(Хі, ук)

к

(это равенство имеет тот же смысл, что и равенство (1.21) для непре­

рывных случайных величин). Аналогичным образом

И</А) =2И*/. Ук),

і

18

так что

2 2w

'у^= 2 (*()= *;

(1 '36)

 

 

2 г/« 2ш(лг/ ^ ^ 2 ^ ( л )=

37)

Равенства (1.35)(1.37) доказывают теорему для дискретных величин.

Нетрудно получить аналогичный результат для случая

непрерывных

случайных

величин.

 

 

 

2. Среднее значение

произведения

двух независимых

величин равно

произведению

средних

значений этих

величин:

 

 

 

Ту=~ху~.

 

(1.38)

Доказательство основано на использовании теоремы умножения ве­ роятностей для независимых величин. Учитывая равенство (1.26), для дискретных случайных величин получаем:

ху'= 2X''JKW

Ук)

=

22x'IJkW w ^=

і, к

і

к

 

= 2X i W ^ 2Ui<w ^ = ~у'

ік

что и требовалось доказать.

Обе теоремы обобщаются на случай любого числа случайных ве­ личин.

§ 5. Отклонения от средних

Характеристика поведения системы при испытаниях через сред­ ние величины не является достаточной, так как остается неизвестной степень отклонения наблюдаемых величин от среднего значения. Обо­ значим отклонение наблюдаемой величины от среднего значения через

Л я:

_

 

Ах

= х~ 7.

(1.39)

Для характеристики отклонений измеряемых величин от среднего следует указать усредненное значение некоторой функции от Ах. Среднее значение самой величины Ах (среднее отклонение) не может служить такой характеристикой, поскольку

~Кх = {х —~х) = х - х= О,

(1.40)

т. е. отклонения от среднего в обе стороны происходят в одинаковой степени.

В качестве меры отклонения случайной величины от среднего удобно пользоваться средним квадратом отклонения, или дисперсией:

(Д*)2 = (х — х)* = Р(х).

"(1.41)

Дисперсия случайной величины D(x) близка к нулю лишь в том слу-

19

Соседние файлы в папке книги из ГПНТБ