Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги из ГПНТБ / Уриг, Р. Статистические методы в физике ядерных реакторов

.pdf
Скачиваний:
18
Добавлен:
22.10.2023
Размер:
14.15 Mб
Скачать

§ 2.3. Вероятностные распределения при радиоактивном распаде

Биномиальное распределение. Явление радиоактивного рас­ пада можно проанализировать с помощью элементарной теории вероятностей. К тому же радиоактивный распад позволяет наглядно показать вероятностные распределения: биномиальное, Пуассона и Гаусса (нормальное) [1].

Если имеется большое число N0 радиоактивных атомов с вероят­ ностью распада р, то может быть оценена вероятность распада т атомов за время t. Рассмотрим в данный момент только т атомов из N 0. Вероятность того, что первый из этих т атомов распадается, равна р; что распадается первый и второй—ра; что распадается пер­ вый, второй н третий — р3 и т.д. Вероятность того, что распадутся все т атомов, равно р'п. Если ровно т атомов распадаются, то остав­ шиеся (N0т) атомов не должны распасться. Вероятность этого равна (1 — p)N°~m, так как вероятность избежать распада равна 1 — р. Следовательно, для данной группы из т атомов вероятность точного распада т атомов за время t равна р'п • (1 — p)N«~m. Од­ нако именно эта группа из т атомов является не единственной груп­ пой атомов, которая может распадаться. Первым из распадающихся атомов, входящих в число т атомов, может быть любой из N 0 ато­

мов, вторым—любой из N0— 1 атомов

и т. д., т-м— любой из

N0— т + 1 атомов. Произведение этих выражений

N0(N0- \ ) ( N Q-2)...(N 0- m + \ ) = mn

(N0- L ) = N°' (2.15)

1=0

(I*от)\

дает общее число схем, по которым могут распасться т атомов из N0 за время t. Поскольку произведение включает также порядок выбора т атомов, необходимо его разделить на число перестановок из т атомов, равное т\ Следовательно, вероятность р (т) того, что т атомов из N0 распадутся за время t, равна

Р М =

N0\

p)w»-

(2.16)

XN0-m )\m !

Это выражение для р (т) обычно называют биномиальным распре­ делением вероятности, так как коэффициент в квадратных скоб­ ках является коэффициентом перед величиной хт в биномиальном разложении (1 + х)ык Вероятность 1 — р того, что атом не распа­ дается за время t, определяется отношением числа нераспавшихся атомов N к начальному числу атомов N0:

N/N0 = 1 - р = q,

(2.17)

где р — вероятность того, что атом не распадается за время t.

20

Скорость распада ядер в момент времени t пропорциональна числу остающихся ядер:

dN/dt = — KN,

(2.18)

где %— коэффициент пропорциональности, являющийся характер­ ной константой распада для радиоактивного материала. Решение уравнения (2.18) дает

N/N0 = e~u .

(2.19)

Комбинируя уравнения (2.16), (2.17) и (2.18), получим

 

р = 1 —М/М0= 1 —e - w = l —q,

(2.20)

р(т)--=

N0'.

— XA(Mn — m\

 

AN0—m)\ m\ j(l —e~w)m(e~w)(

 

 

Np\

I pmq(N0—m)

(2.21)

 

L(jv0m)\m\ J

 

а. Средняя скорость распада. Математическое ожидание скорости распада радиоактивного материала может быть получено с помощью закона биномиального распределения. Подставив уравнение (2.21) в (2.1), получим среднее значение т, среднее число распадов за время t:

N0

No

т

N0\

pin g(No — m)_

(2.22)

V mp(m) =

2

(Naт)\ mV

 

т=О

т —0

 

 

 

Это выражение можно вычислить, используя биномиальное разло­ жение выражения (px-|-p)w°:

(px-\-q)N° = 51

----- — ----- 1рт

хт =

V хтр(т).

(2.23)

m=oUM>—т)\т\ J

 

 

т = 0

 

Дифференцирование его по х дает

 

 

 

 

 

No

tnxm~ l р(т).

(2.24)

M0p(px-|-(7)'V° - 1= 2

 

т — 0

 

 

 

Для х = 1, что приводит уравнение (2.23)

к разложению единицы,

N 0 P(P + q)N°~l = N ap =

2

тр(т) = 11т.

(2.25)

 

 

т= 0

 

 

 

Используя уравнение (2.20), получим среднее

число распадов за

время t:

 

 

 

 

 

 

Vm = N0p = N0{l —e ~ w).

 

(2.26)

При рассмотрении времен, коротких по сравнению с периодом полураспада радиоактивного материала, применимо приближение

e“ w ~ l — %t,

(2.27)

тогда

(2.28)

При рассмотрении времен, больших, чем одна сотая периода полураспада, должно использоваться уравнение (2.26).

б. Среднеквадратическое отклонение измерений скорости счет

Среднеквадратическое отклонение и дисперсия числа распадов за время t могут быть получены из биномиального разложения урав­ нения (2.23) путем определения второй производной по х:

W0(W0 — 1) р2(рх+ ?)*»-2 =

2J т{т— \)х"'~2р{т), (2.29)

 

т=0

 

 

 

 

которое для х — I переходит в выражение

 

 

 

No(No — 0 Р2 = У)

т (т — 1)р(т) = ^

т2р(т)—

^

тр(т).

т—0

 

щ—0

гп=0

(2.30)

 

 

 

 

 

 

Используя уравнения (2.1) и (2.2), выражение (2.29) можно

привести к виду

 

 

 

 

 

 

 

N o(N 0l ) p 2 = ^ m — И-m-

 

 

(2-31)

Дисперсия, определяемая уравнением (2.6):

 

 

 

 

= — (Am,

 

 

 

(2.32)

получается путем комбинации уравнений (2.26) и (2.31):

 

dm = N0 (N0— 1) р2 + p,m— 1*5, =

 

 

 

= ^0 р 0 —Р) = NoPq = И'т (1 — р) = Н-т 7-

 

(2.33)

Для радиоактивного

распада, для которого р дается

уравнением

(2.20), уравнение (2.33) преобразуется к

виду

 

 

 

 

a^ = p,me - « .

 

 

 

(2.34)

Если время наблюдения мало по сравнению с периодом

полурас­

пада, т. е. Kt мало, уравнение (2.34)

переходит

в

 

 

ИЛИ

dm = Цт,

 

 

 

 

(2.35)

 

 

 

 

 

 

 

Qm = V \ ^ ,

 

 

 

(2.36)

т. е. среднеквадратическое отклонение числа распадов за время i рав­ но корню квадратному из среднего числа распадов, которые про­ исходят за данный интервал времени.

22

Распределение Пуассона. Биномиальное распределение, опи­ сываемое уравнением (2.21), упрощается при наложении следующих ограничений:

 

 

 

т -С А70;

 

 

(2.37)

 

 

 

w „ » i ;

 

 

(2.38)

и приближении

 

 

М « 1,

 

 

(2.39)

 

еи «

1 +W ;

 

 

(2.40)

 

 

 

 

х ! '^5 (2ях)‘/2 е~х хх (формула

Стирлинга);

(2.41)

( l

т \Н0

«

,.

/ ,

т yv<>

(2.42)

— —

lim

 

1 — —

= е ~ м;

V

Nq J

 

n-+oo\

 

Nо /

 

(2.43)

 

 

 

 

 

 

 

 

В результате

получаем

выражение

 

 

|У" e—

p (m) — — —j— . (2.44) m\

известное как распределение Пуассона, которое справедливо для N0, больших 200, и U, меньших 0,01. Это распределение почти сим­ метрично вблизи цт , если исключить значения т , удаленные от рт, и становится все более симметричным при возрастании рт . Основное преимущество распределения Пуассона состоит в том, что оно пол­ ностью определяется с помощью единственного параметра рпг

Гауссово, или нормальное, распределение. Если наложить до­ полнительные ограничения

 

/л > 2 0 0 ,

 

(2! 45)

 

| Рт —

 

 

(2. 46)

и использовать приближение

 

 

 

In

Pm —'»

Pm—т

(Pm—"О2

(2.47)

 

га

т

2

 

уравнение (2.44), описывающее распределение Пуассона, сведется к

р{т) = (2ярт )- 1/2 ехр [— (рт —т )2/2рт ].

(2.48)

Это распределение называется нормальным распределением, или распределением Гаусса, и является симметричным относительно среднего значения рт .

а. Центральная предельная теорема. Важность нормального распределения для большинства физических задач непосредственно связанас использованием центральной предельной теоремы, которая гласит, что сумма независимых случайных переменных при доста­ точно общих условиях подчиняется примерно нормальному распре-

23

делению независимо от исходных распределений переменных. По­ скольку многие наблюдаемые физические явления—результат вза­ имодействия многочисленных переменных, нормальное распреде­ ление представляет хорошее приближение для многих обычно встре­ чающихся функций распределения. Эта теорема бывает весьма по­ лезной во многих практических случаях. Например, в ядерном ре­ акторе результирующая плотность нейтронов в данной точке может обусловливаться нейтронами, которые родились в результате цепо­ чек распадов, фактически не коррелируемых.

Рис. 2.1. Гауссово (нормальное) распределение вероятности.

б. Среднеквадратическое отклонение. Для больших значений цт среднеквадратическое отклонение определяется по формуле, анало­ гичной уравнению (2.36) для биномиального распределения:

* Г = У ^

(2.49)

Подстановка уравнения (2.49) в (2.48) дает наиболее привычную форму записи нормального распределения:

р(т) = - = - ехр

(Щп —'П)2

(2.50)

2а*

П.У2п

т

 

Кривая нормального распределения полностью определяется сред­ ним значением рт и среднеквадратическим отклонением от слу­ чайной переменной т. Кривые распределения по нормальному за­ кону для больших и малых значений дисперсии представлены на рис. 2.1. Надо иметь в виду, что площадь под кривой функции плот­ ности вероятности равна единице независимо от величины диспер­ сии. Если среднее значение рт равно нулю, кривые нормального рас­ пределения (см. рис.’ 2.1) симметричны относительно точки т = 0. Интегрирование функции плотности вероятности от рт — а до цт + + а дает вероятность того, что т будет лежать вблизи рт на рассто-

24

янии в пределах |а |. На рис. 2.1 интеграл представлен заштрихо­ ванной площадью. Величина а, при которой интеграл

•Ат + °

(2.51)

[ p(tn)dm

равен 1/2, называется вероятной ошибкой, т. е. половина экспери­ ментальных данных будет попадать в интервал около среднего зна­ чения плюс или минус вероятная ошибка. Можно показать, что для нормального распределения вероятная ошибка и среднеквадрати­ ческое отклонение связаны между собой соотношением

вероятная ошибка = 0,6745 ат

(2.52)

и что с вероятностью 68,27% экспериментальные данные будут по­ падать в интервал ± <зт возле среднего значения р.т.

Интеграл от р (т), определяющий функцию распределения ве­ роятности Р (т) для нормального распределения, не вычисляется аналитически. Однако подстановкой

р,т— m = Y2ou

(2.53)

интеграл сводится к функции ошибок, определяемой как

U

 

erf и — Д=- Ге- "2du,

(2-54)

У я J

 

о

 

которая может быть вычислена по таблицам

математических

функций.

 

§ 2.4. Корреляционные функции

Корреляция—одно из важнейших понятий в анализе случайных шумов. Корреляция устанавливает количественное и (или) качест­ венное отношение переменной к самой себе, к другой переменной или нескольким переменным в зависимости от времени или с изме­ нением времени. Чтобы показать статистическую основу этого поня­ тия, оно будет введено здесь с использованием некоторых статисти­ ческих отношений, полученных ранее в этой главе.

Рассмотрим степень зависимости между двумя действительными случайными переменными х и у. Если построить диаграмму рассея­

ния для дискретных

значений хь и

у г случайных величин так,

как показано на рис.

2.2, то можно,

применив метод наименьших

квадратов, провести по данным точкам прямую. Если все точки по­ падут на эту прямую, можно сказать, что случайные переменные х и у являются линейно зависимыми или полностью коррелирован­ ными. Если точки так широко рассеяны, что они не выделяют ка­ кую-либо отдельную прямую, переменные х и у, вероятно, являются' независимыми или некоррелированными. Для случая, представлен­

25

ного на рис. 2.2, где данные, по-видимому, выделяют прямую, не­ смотря на большое количество разбросов, х и у являются частично зависимыми или частично коррелированными.

Воспользуемся методом наименьших квадратов для определения по данным точкам прямой:

Ур = а + Ьх,

(2.55)

где ур — предсказываемое значение у, а и Ь — постоянные пересе­ чения и наклона прямой соответственно.

Среднеквадратическую ошибку es можно определить как:

 

es = Е 1{у— Уpf] = Е {[у — (а + bx)f).

(2.56)

Рис. 2.2. Диаграмма рассеяния для случайных пе­ ременных X и у.

Дифференцирование по а и b и приравнивание результатов

нулю дает выражения:

 

 

dejda

= — 2Е (у) + + 2ЬЕ (х) = 0,

(2.57)

dejdb =

— 2Е (ху) + 2аЕ

(х) + 2ЬЕ (хй) — 0,

(2.58)

откуда

 

 

 

ь _ £ (ху) —Е (х) Е (у)

Е {ху)—Е (х) Е (у)

(2.59)

 

£ (*■ )-[£ (*)]*

 

 

 

 

д _ Е (ХУ) Е ( х ) Е (у) Е (л:3) _

Е {ху) Е (х)—Е (у) Е (х2)

(2.60)

{Е (х2) - [ Е (х)Р) Е (х)

°2Е(х)

 

Уравнение (2.55) использовалось для получения линии регрес­ сии у от х. Столь же обоснованно рассмотреть линию регрессии х от у путем подгонки точек к прямой

хр = а' + Ь'у,

(2.61)

26

где хр — предсказываемая величина и а' и Ь' являются соответст­ венно пересечением оси х и наклоном (по отношению к оси у). Кон­ станты а' и Ь' определяются из уравнений:

и> Е( ху ) —Е(х)Е(у)

(2.62)

 

, Е (ху) Е (у) —Е (х) Е (у2)

(2.63)

<у*Е(У)

 

Если х и у полностью коррелированы, регрессии, полученные при подгонке прямой х от у и у от х, должны быть идентичными, т. е. две линии на рис. 2.2 должны совпадать. Отсюда получаются отно­ шения:

а = а'/Ь' , или ав

=

а' ,

(2.64)

b — Mb' , или bb'

=

1.

(2.65)

Нормированный коэффициент корреляции. Если х и у не пол­ ностью коррелированы, можно определить степень корреляции по отклонению от уравнения (2.65). Нормированный коэффициент кор­ реляции определяется как корень квадратный из произведения двух коэффициентов наклона Ь и Ь'\

п -

[66']1/2 _ (

МУ)—Е (х(^)]2 11/ 2

ГЕ (ху)—Е (х) Е( у))

(2.66)

I

al al

J

1

ох ау

Г

 

 

Используя неравенство Шварца, можно показать, что

 

 

 

\Е ( х у )\^ \Е ( х )\

| £(</)!•

 

 

(2.67)

В случае, когда х и у некоррелированны (линейно независимы), слу­ чайные переменные

Е (ху) = Е (х) Е (у)

(2.68)

и, следовательно, р = 0. Из этих уравнений видно, что абсолют­ ное значение нормированного коэффициента корреляции меняется от нуля для некоррелированных переменных до единицы для пол­ ностью коррелированных переменных, т. е.

0 < | р | < 1 .

(2.69)

Ковариационная функция. Определим ковариацию Сху между х и у как числитель уравнения (2.66):

Сху = Е (ху) Е (х) Е (у).

(2.70)

Алгебраические преобразования уравнения (2.70) дают

оо

оо

 

= £[(* — И-*)(0— M = J

§ (х—

\iy)p(x,y)dxdy. (2.71)

27

В частном случае для одной переменной, когда х =

у,

Cxx = E [ ( x - [ixf] = G l

(2.72)

Понятия линейно независимые переменные и некоррелирован­ ные переменные не идентичны. Независимые случайные перемен­ ные некоррелированны. Обратное утверждение, т. е. что некор­ релированные переменные независимы, не справедливо в общем случае, так как при Сху и рху равных нулю переменные х и у могут быть связаны нелинейной зависимостью.

В общем случае средние значения отдельных случайных пере­ менных х и у не остаются постоянными во времени и должны опре­ деляться в различные моменты времени. В моменты tx и t2, где tx — t,

a t2 = t +

т, ковариация х (к) и у (i2) равна:

 

 

Сху (к, к) = СхУ(/, Н -т) = СхУ(т) =

 

 

= £{[х(/) — ця (/)] [yU + k — Иу^ + т)]}.

(2.73)

Подобные

выражения могут

быть написаны для Схх (/,

t + т) и

Суу (t, / +

т). В том случае,

когда т = 0, уравнение (2.73)

перехо­

дит в уравнение (2.72).

 

 

Корреляционные функции. Взаимная корреляционная функция

определяется как

 

 

 

Флу (т) =

Е [х (/) у (/ + т)].

(2.74)

Сравнение уравнений (2.74) и (2.73) показывает, что ковариация является частным случаем взаимнокорреляционных функций, из которых вычитаются средние значения. Для стационарных процес­ сов уравнение (2.73) записывается

СХу (т) = Е [х (t) у (г + т)] —

= флг/ (т) — ЦхЦу. (2.75)

Для одной переменной, когда х = у , получаем автокорреляционную функцию

фжд: СО = Е [х (t) X (t + т)].

(2.76)

Корреляционные функции выражаются через функции плотности совместной вероятности как

 

оо

оо

 

 

Ф*у(0 =

5

5

х(к)У(к)р[х(к)у(к)]йхс1у.

(2.77)

— ОО — оо

 

Для частного случая,

при т = 0:

 

Фжу (0)

= Е [х (0 у (/)],

(2.78)

4>хх (0)

=

Е {1х (О]2} = Ф2.

(2.79)

28

С помощью неравенства Шварца можно показать, что

Ф*У (т) I2 <

фжя(0) фуу (0),

(2.80)

С ,у(т)|2<

0 ^ (0 ) С„в (0)

(2.81)

|ф«е(т)К ф **(0)='Ф 1.

(2.82)

|С г.,( т )|< С ,,(0 ) = а1.

(2.83)

Используя уравнение (2.66), переопределим нормированную взаим­ нокорреляционную функцию (нормированную взаимноковариацион­ ную функцию) как

______ Сху (т )_______

(2.84)

Рхи (т) = [С^ (0) Суг/ (О)]1/ 2 ’

которая удовлетворяет условию

|р * „ (т )|< 1 .

(2.85)

Функция рху (т) показывает степень линейной зависимости между x(t) и y(t) при изменении времени на т.

СП И С О К Л И Т Е Р А Т У Р Ы

1.Evans R. D. The Atomic Nuclear. McGraw-Hill Book Company, Inc., N. Y., 1955.

2.Jahnke E., Emde F. Table of Functions, 4th ed., Dover Publications, N.' Y., 1945. (См. Янке E., Эмде Ф. Таблицы функций с формулами и кривыми.

Изд. 3-е. Пер. с англ. М., Гос. изд-во физ.-мат. лит., 1959.)

3.Bendat J. S., Piersol A. G. Measurement and Analysis of Random Data. John Wiley and Sons, Inc., N. Y., 1966. (См. Бендат Дж., Пирсол А. Из­ мерение и анализ случайных процессов. Пер. с англ. М.,«Мир», 1971.)

Соседние файлы в папке книги из ГПНТБ