Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Downloads / Статы (1) / Статы / Lекции = отредактированные.doc
Скачиваний:
175
Добавлен:
27.05.2015
Размер:
2.03 Mб
Скачать

1.3.Случайные величины. Распределение вероятностей

Рассмотрим случайную величину –результат случайного эксперимента. В зависимости от вида эксперимента может быть как дискретной, так и непрерывной величиной. Случайной величинеможно сопоставить множество случайных событийAi, заключающихся в том, что=xiдля дискретной и

xi<<xi+1для непрерывной случайной величины. Закон, по которому каждому возможному значениюxiдискретной случайной величины или интервалуxзначений непрерывной случайной величиныставится в соответствие вероятность того, что случайная величина приметэтозначение или будет находиться в этом интервале, называетсязакономраспределениявероятностислучайной величины. Аналитическим выражением закона распределения являетсяфункцияраспределения.Интегральнаяфункцияраспределениявероятностей

F(x) = P{  x}. Её оче­вид­ные свойстваF(–) = 0,F() = 1,F(x1x2)F(x2).

Если интегральная функция распределения случайной величины непрерывна и дифференцируема, то случайная величина называетсянепрерывной, а производная(x) =dF(x)/dx=P{x<x+dx}/dx0 называетсяплотностьювероятностей. Естественно, чтоP{x<x+dx} =(x)dx,

, . Для дискретной случайной величины, если

pi=P{=xi}, то .

Для любой функции f() случайной величины определяется среднее значение или . Особую роль в статистической радиофизике играют моменты случайной величины. Моментn-го порядка равен среднему значению величины n: или . Момент первого порядка называетсясреднимзначением, илиматематическиможиданиемслучайной величины: или .

Определены также центральныемоментыслучайной величины: или . Центральный мо­мент второго порядка называетсядисперсией:

.

Нетрудно показать, что

Рассмотрим несколько примеров распределения случайных величин. Пусть в серии из Nслучайных экспериментов при неизменном комплексе условий каждый из экспериментов может иметь только два исхода:либо про­ис­хо­дит событиеАс вероятностьюР{А} =p, либо не происходит событие Ас вероятностьюР{А} = 1 –Р{А} = 1 –p=q. Если результаты экспериментов независимы, то вероятностьРN(n) того, что в серии из Nиспытаний событиеAпроизойдёт ровноn, раз даётсябиномиальнымзаконом распределения:

РN(n) =СNnpnqNn, (1.0 = в новых лекциях 1.9)

где СNn– биномиальный коэффициент. Нетрудно найти моменты этого рас­пре­де­ле­ния :

m1=n=Np,m2=n2=Np[1 +p(N– 1)],n2=M2(n) =Npq.

Пусть теперь число испытаний Nувеличивается, а вероятность pсобытияAуменьшается так, что среднее число событий n=Npостаётся постоянным, то есть .Тогда из формулы (1.6)получаем:

(1.0в новых лекциях 1.10)

распределениеПуассона. Это распределение описывается единственным параметромn, при этомm1= <n> =n,m2= <n2> = (n)2+n,M2=n2=n.

В формуле (1.6)возможен и другой предельный переход. ПустьN, ноp=const, причёмp0,p1.Тогда

распределение МуавраЛапласа, где. При большихNможно пренебречь дискретностьюnи перейти к непрерывной случайной величине с распределением:

– (1.0)

нормальноераспределение, илираспределениеГаусса. Для этого распределения <> =x,D() =2.

1.4. Закон больших чисел. Аксиома измерений

Пусть случайная величина  имеет конечную дисперсию2. Тогда для произвольного числааполучаем:

Положив а=,получаем, что для любого > 0

P{|–|}2/2(1.0)

неравенствоЧебышева.

Рассмотрим теперь случайную величину N– среднее арифметическое изNслучайных попарно независимых величин, имеющих равномерно ограниченную дисперсию, то естьD(i)С. Пользуясь определением дисперсии и свойством вероятностей, получим, что

.

В силу неравенства Чебышева (1.9),с учётом того, чтоP{A} = 1 –P{A}, получим1  P{|N–N|}1 –C/(N2). Значит,

– (1.0)

теоремаЧебышева, илизаконбольшихчисел. Если

,то говорят, что последовательностьNсходится по вероятности кa. Эта сходимость обозначается как.

Вернёмся теперь к частотному определению вероятности. В серии из Nиспытаний появлению событияAвi-м испытании поставим в соответствие

i= 1,а непоявлению событияAвi-м испытании –i= 0. Тогда ,i = 1  P{A} + 0P{A} =P{A} =p, . В силу теоремы Чебышева (1.10),получаем:

– (1.0)

теоремаБернулли.

Утверждение (1.11)показывает, что аксиома измерения (1.1) согласуется с математической теорией вероятностей, то есть частотное определение вероятностей является корректным способом установления соответствия между чисто математическим объектом –вероятностьюp,для которой вводятся теоремы и утверждения, – и экспериментально наблюдаемыми относительными частотами появления события. Установив такое соответствие и обосновав его корректность, можно ставить вопрос об экспериментальной проверке выводов теории вероятностей.

Теорему Бернулли (1.11)часто записывают в другой форме: ,

то есть среднее арифметическое сходится по вероятности к математическому ожиданию. Существует и более сильное, чем теорема Бернулли, утверждение

– теорема Бореля. Если для случайных величинn , то говорят, что последовательность случайных величинn сходится кaпочти наверняка. Если же , то говорят, что последовательность случайных величин n сходится кaв среднеквадратичном, или. Заметим, что, в силу неравенства Чебышева (1.9),сходимость в среднеквадратичном влечёт сходимость по вероятности, сходимость почти наверняка влечёт сходимость по вероятности.