Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / 37

.pdf
Скачиваний:
2
Добавлен:
07.06.2023
Размер:
2.58 Mб
Скачать

Таким образом, под статистическим о пределением веро ятно сти понимается почти достоверный предел его относительной частоты при неограниченно растущем числе испытаний. Отсюда при большом числе n независимых испытаний, производящихся в неизменных условиях Ψ, относительная частота события А приближенно равна его статистической вероятности. Указанный факт значительно расширяет круг явлений, для которых возможна объективная оценка вероятностей событий.

Нередко из теоремы Бернулли делают совершенно необоснованный вывод, что частота события А при безграничном увеличении числа испытаний стремится к вероятности события А. Указанный факт в свое время послужил причиной распространения концепции вероятности, данной Р. Мизесом [цит. по 23].

Согласно Мизесу, если относительная частота по мере увеличения числа испытаний все меньше смещается от вероятности р, то в пределе должно быть

p

lim n

m n

.

Это равенство Мизес предложил считать определением понятия вероятности. Учитывая ограниченность классической вероятности и принципиальную применимость статистической вероятности ко всем имеющим научный интерес случаям, то классическое определение через равновозможность, основанную на симметрии, по мнению Мизеса, следует вовсе отбросить.

Однако на самом деле теорема Бернулли устанавливает только тот факт, что разность m m становится пренебрежимо малой по сравнению с n. Например, согласно закону больших чисел Бернулли вероятность того, что при бросании монеты число выпадений герба приблизительно равно числу появившихся решек, стремится к 1 при увеличении числа бросаний. С другой стороны, вероятность того, что число гербов будет в точности равно числу решек, стремится к нулю [93]. Тем не менее, концепция Мизеса до сих пор имеет как восторженных сторонников и последователей (в основном в среде естествоиспытателей), так и серьезных критиков (среди математиков-специалистов в области теории вероятностей).

Для судебной медицины статистическое определение вероятности означает, что при достаточно большом количестве схожих эмпирических наблюдений абсолютное отклонение относительной частоты изучаемого события при данной

совокупности условий его реализации от его вероятности будет меньше любой произвольной величины ε. Данное обстоятельство позволяет в качестве приближенного значения априорной вероятности р данного события в заданных условиях его реализации принять его относительную частоту m / n .

1.4.АКСИОМАТИЧЕСКАЯ ТЕОРИЯ ВЕРОЯТНОСТЕЙ

Втечение нескольких столетий после начала своего систематического изучения основные понятия теории вероятностей еще не были четко определены. Нечеткость базовых определений часто приводила исследователей к противоречивым выводам, а практические теоретико-вероятностные приложения были слабо обоснованы [23,40]. Дальнейшее развитие естествознания обусловило необходимость систематического изучения основных понятий теории вероятностей и определения условий, при которых возможно использование ее результатов. Особенное значение приобрело формально-логическое обоснование теории вероятностей, которое, в частности, в 1900 г. Д. Гильбертом было отнесено к числу важнейших проблем математики [93].

Формально-логический принцип построения требовал, чтобы основу теории вероятностей составили некоторые аксиоматические предпосылки, являющиеся обобщением многовекового человеческого опыта. Дальнейшее же развитие теоретиковероятностных концепций должно было строиться посредством дедукции из аксиоматических положений без обращения к нечетким и интуитивным представлениям. Впервые такая точка зрения была развита в 1917 г. советским математиком С.Н. Берштейном. При этом С.Н. Берштейн исходил из качественного сравнения случайных событий по их большей или меньшей вероятности [23]. Математически строгое построение аксиоматической теории вероятностей предложил А.Н. Колмогоров

в1933 г., тесно связав теорию вероятностей с теорией множеств и теорией меры [23]. Аксиоматическое определение вероятности как частные случаи включает в себя и классическое и статистическое определения и преодолевает недостаточность каждого из них.

Отправным пунктом аксиоматики А.Н. Колмогорова является множество элементар ных со быти й ω , в специальной

литературе называемое фазо вым про стр анство м и традиционно

обозначаемое через Ω. Любое наблюдаемо е событие, вероятность которого необходимо определить, представимо в виде некоторого подмножества фазового пространства. Поэтому наряду с множеством Ω рассматривается множество Θ подмножеств элементарных событий, символическое обозначение которого может быть произвольным. Достоверное событие представимо всем фазовым пространством. Множество Θ называется алгеброй мно жеств , если выполнены следующие требования:

1)

Ω Θ, Θ;

 

2)

из того, что A Ω, следует, что так же A Θ ;

3)

из того, что A Θ и B Θ , следует, что

 

А В Θ и

А В Θ.

Если дополнительно к перечисленным выполняется еще

следующее требование:

 

4)

из того, что An Θ (при n 1, 2, ), вытекает, что

 

An Θ и

An Θ,

 

n

n

то множество Θ называется σ - алгебр ой . Элементы Θ называются случайными со бытиями .

Под операциями над случайными событиями в аксиоматической теории вероятностей понимаются операции над соответствующими множествами. В результате можно установить взаимное соответствие между терминами языка теории множеств и языка теории вероятностей [23].

В качестве аксиом, определяющих вероятность, А.Н. Колмогоровым приняты следующие утверждения:

Аксио ма

1 . Каждому случайному событию А поставлено в

соответствие

неотрицательное число

Р( А) ,

называемое его

вероятностью.

 

 

 

 

Аксио ма 2 . Р(Ω) 1.

 

 

Аксио ма

3

( аксио ма сло жения ) .

Если события

A1, A2 ,

, An попарно несовместимы, то

 

 

 

P( A1 A2

An ) P(A1 ) P(A2 )

P(An ) .

Следствиями сформулированных аксиом являются следующие утверждения.

1. Вероятность невозможного события равна нулю:

Р( ) 0.

2. Для любого события А

P( A)

1

P( A)

.

3. Каково бы ни было случайное событие А,

0 Р( А) 1.

4. Если событие А влечет за собой событие В, то

P( A) P(B) .

Веро ятно стным пр остр анство м принято называть тройку символов Ω,Θ, P , где Ω – множество элементарных событий ω, Θ

– σ – алгебра подмножеств Ω, называемых случайными событиями, и P( A) - вероятность, определенная на σ – алгебре Θ.

Таким образом, согласно аксиоматике А.Н. Колмогорова каждому наблюдаемому событию приписывается некоторое неотрицательное число, называемое вероятностью этого события, так, чтобы вероятность всего фазового пространства была равна 1, и выполнялось свойство сигма - аддитивно сти . Последнее свойство означает, что в случае попарно исключающих друг друга событий вероятность наступления по крайней мере одного (и в силу попарной несовместимости, ровно одного) наблюдаемого события совпадает с суммой вероятностей наблюдаемых событий из данной конечной или счетной совокупности наблюдаемых событий [23].

В случае определения вероятности на σ - алгебре, состоящей из некоторых подмножеств Ω, первую нельзя продолжить на остальные подмножества Ω так, чтобы сохранялось свойство сигмааддитивности, если только Ω не состоит из конечного или счетного числа элементов. Введение сигма-аддитивности также привело к ряду парадоксов [93]. Поэтому наряду с сигма-аддитивностью параллельно рассматривалось свойство аддитивно сти , под которым понимается эквивалентность меры объединения двух несовместных событий сумме мер этих событий. Однако, практически сразу же было показано, что замена сигмааддитивности на аддитивность не только не решает все проблемы, но и приводит к возникновению других парадоксальных результатов [93].

Система аксиом Колмогорова является относительно непротиворечивой и неполной, позволяет строить теорию вероятностей как часть теории меры, а вероятность рассматривать как неотрицательную нормированную аддитивную функцию множества. Хотя в теории вероятностей А.Н. Колмогорова

вероятность всегда неотрицательна, некоторые теоремы в теории вероятностей можно обобщить на случай, когда отрицательные числа выступают как вероятности, а также получить и другие обобщения вероятности [93].

Некоторые фундаментальные математические теории наследуют основные понятия, конструкции и терминологию теории вероятностей. Таковой, в частности, является теория возможностей, также рассматривающая пространства возможностей и элементарных событий, σ – алгебру [89].

1.5. ЭЛЕМЕТАРНЫЕ ФОРМУЛЫ ТЕОРИИ ВЕРОЯТНОСТЕЙ

В данном разделе будут приведены без соответствующих доказательств выводимые в аксиоматической теории вероятностей элементарные теоремы и их следствия.

Теор ема сло жения про изво льных со бытий . Вероятность суммы двух произвольных событий равна разности суммы и произведения вероятностей этих событий:

P(A B) P(A) P(B) P(AB) .

Следствие . Вероятность суммы произвольных событий никогда не превосходит суммы вероятностей этих событий:

P( A A

A ) P(A ) P(A )

1

2

n

1

2

P(An

)

.

Теор ема сло жения несо вместных событий. Вероятность суммы двух несовместных событий равна сумме вероятностей этих событий:

P(A B)

P(A)

P(B)

.

Следствие . Вероятность суммы конечного числа попарно несовместных событий равна сумме вероятностей этих событий:

P( A1 A2

An ) P(A1 ) P(A2 )

P(An ) .

Теор ема о по лно й гр уппе событий . Сумма вероятностей событий полной группы попарно несовместных событий равна 1:

P( A1 ) P( A2 )

P( An ) 1.

Для формулирования остальных элементарных теорем необходимо введение дополнительных определений.

Опр еделение 1 . Вероятность события А при условии, что произошло событие В, называется усло вной вероятностью события А и обозначается как

P( A B) PB ( A) .

Если при вычислении вероятности Р(А) никаких ограничений, кроме условий Ψ не налагается, то такие вероятности называются безусло вными . Строго говоря, безусловные вероятности также являются условными, поскольку исходным моментом их определения было предположение о существовании некоторого неизменного комплекса условий Ψ.

Опр еделение 2 . Два события А и В называются независ имыми , если вероятность каждого из них не зависит от появления или непоявления другого, т.е.

P( A) P( A B) P( А В)

и

P(В)

P(B A)

P(B

A)

.

В противном случае события называются зависимыми .

Опр еделение 3 . События называются независимыми в сово купно сти , если каждое из них и любое произведение остальных (включающее либо все остальные события, либо часть из них) есть события независимые.

События, независимые в совокупности, попарно независимы между собой; обратное утверждение неверно.

Теор ема умно жения про изво льных событий . Вероятность произведения двух произвольных событий равна произведению вероятности одного из них на условную вероятность другого, в предположении, что первое имеет место, т.е.

P( AB) P( A)P(B A) P(В)P( A B) .

Следствие . Для любых двух событий А и В справедливо равенство

P( A)P(B A) P(В)P( A B) .

Теорема умножения произвольных событий допускает обобщение на случай нескольких событий.

Теор ема умно жения независимых событий. Вероятность совместного появления двух независимых событий А и В равна произведению вероятностей этих событий:

P(AB) P(A)P(B).

Теор ема умножения независимых в со вокупности событий . Вероятность произведения конечного числа независимых в совокупности событий равна произведению вероятностей этих событий:

P(A1 A2

An ) P(A1 ) P(A2 )

P(An ) .

Фор мула по лно й веро ятности . Вероятность события В, появляющегося в результате реализации одной и только одной

гипотезы

Ai (i 1,2,

, n)

из

некоторой

группы

несовместных

гипотез

A1, A2 ,

, An

,

равна

сумме

парных

произведений

вероятностей всех гипотез, образующих полную группу, на соответствующие условные вероятности события В, т.е.

P(B)

n

i

i

 

 

P( A )P(B A )

i 1

 

 

,

n

причем P( Ai ) 1.

i 1

В теоретико-вероятностных приложениях часто требуется найти вероятность события Ai , если известно, что В произошло.

Общая схема решения подобных практических задач сводится к применению фо рмулы Байеса :

 

P( A )P(B A )

P( A B)

i

i

n

 

i

 

 

P( Aj )P(B Aj )

 

j 1

 

.

Принцип использования формулы Байеса можно пояснить следующим образом.

Пусть событие В может быть реализовано в различных условиях, относительно характера которых можно сделать n гипотез:

A1, A2 , , An .

По тем или иным причинам вероятности

P( Ai )

этих гипотез

известны до испытания (апр ио рные веро ятности ).

Известно

также, что гипотеза

A

сообщает событию В вероятность

P(B A ) .

 

i

 

i

Произведен опыт, в котором событие В наступило. Это должно

вызвать переоценку вероятностей гипотез

Ai

. Переоценка

указанных вероятностей производится по формуле Байеса.

Переоцененные

вероятности

гипотез

Ai

называются

апостер иор ными веро ятн остями .

 

 

Сама по себе формула Байеса теоретически бесспорна, но во

многих случаях

ее применения

априорные

вероятности P( Ai )

неизвестны. Некоторые исследователи в таких случаях считают возможным предполагать равные вероятности всех гипотез Ai [114]. Однако в общем случае такой подход неверен [23,139,140].

Другим выходом из проблемной ситуации, связанной с незнанием априорных вероятностей, явился метод последовательного применения формулы Байеса, когда апостериорные вероятности многократно пересчитываются и на каждом последующем шаге используются как априорные. При этом неизвестные априорные гипотезы также принимаются равновероятными, но многократный пересчет значительно снижает влияние данного предположения на конечные результаты [93,140].

1.6. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ И ФУНКЦИИ РАСПРЕДЕЛЕНИЯ

Понятие случайно й величины является одним из основных понятий теории вероятностей. Под данным термином подразумевается величина, значения которой зависят от случая и для которой определена функция распределения вероятностей. Функцией распр еделения веро ятно стей случайной величины ξ называется вероятность того, что ξ примет значение, меньшее, чем произвольное число х:

F(x) P ξ x .

Случайные величины принято обозначать греческими буквами, а принимаемые ими значения – строчными латинскими [23]. В зависимости от характера принимаемых значений различают 2 основных класса случайных величин: дискретные и непрерывные.

Дискр етные случайные величины могут принимать только конечное или счетное множество значений. Соответствие между всеми возможными значениями дискретной случайной величины и их вероятностями называется зако но м р аспр еделения данной случайной величины.

Пусть ξ – дискретная случайная величина, единственно возможными значениями которой являются числа x1, x2 , , xn . Обозначим через

p P(ξ x )(i 1,2,

, n)

i

i

 

вероятности этих значений. Тогда закон распределения случайной величины ξ задает таблица

ξ

x1

x2

xn

р

p1

p2

pn

Н е п р е р ы в но й называется случайная величина, все возможные значения которой целиком заполняют некоторый конечный или бесконечный промежуток числовой оси. Для любой непрерывной случайной величины существует неотрицательная функция f (x) , при любых х удовлетворяющая равенству:

Функция

f (x)

x

F (x) f (x)dx .

называется пло тно стью распределения

веро ятно стей непрерывной случайной величины.

Плотность распределения вероятностей обладает следующими свойствами:

1.

2.

f (x) 0 .

При любых

x1

и

x2

удовлетворяет равенству

 

 

 

 

 

 

x

 

 

 

 

 

P x1 ξ x2

2

 

 

 

 

 

 

f (x)dx .

 

 

 

 

 

 

 

 

 

 

 

 

x

 

 

 

 

 

 

 

 

1

 

 

3.

f (x)dx 1.

 

 

 

 

 

 

 

 

 

 

 

 

 

F (x) является первообразной функцией для функции

f (x) :

 

 

 

 

 

f (x) ,

 

 

 

 

 

F (x)

 

поэтому

функцию

F (x)

называют

также интегр альным , а

плотность вероятностей

f (x) -

диффер енциальным

зако но м

распределения случайной величины ξ. Функция распределения имеет также смысл для дискретных случайных величин.

В теории вероятностей в отношении непрерывных случайных величин доказана следующая важная теорема [27].

Теор ема . Вероятность (до опыта) того, что непрерывная случайная величина ξ примет заранее указанное строго

определенное значение а, равна нулю.

 

Ω,Θ, P , на

Рассмотрим теперь вероятностное пространство

котором определены n случайных величин

 

ξ1 f1 (ω),ξ2 f2 (ω),

n fn (ω).

 

Тогда вектор 12 , ,ξn ) называется случайным вектор ом или n-мерной случайной величиной.

Обозначим через ξ1 x12 x2 , ,ξn xn множество тех

элементарных событий ω, для которых одновременно выполняются неравенства

 

 

ξ1 x1,ξ2

 

x2 ,

,ξn

xn .

 

 

 

 

Это событие принадлежит множеству Θ, т.е.

 

 

 

 

ξ1 x1,ξ2

x2 ,

,ξn

xn Θ.

 

 

Таким образом, при любом наборе чисел

определена вероятность

 

 

 

 

 

 

 

 

 

 

 

 

 

, x ) P

 

 

 

x ,

 

 

x

F(x , x ,

 

ξ x ,ξ

2

,ξ

n

 

1

2

n

 

 

 

1

1

 

2

 

n

 

.

x , x

,

, x

1

2

 

n

Функция

F(x , x

,

, x

)

1

2

 

n

 

от n аргументов называется n-мерной

функцией распределения случайного вектора 12 , ,ξn ) .

Геометрическая

интерпретация

рассматривает

вектор

(ξ1,ξ2 ,

,ξn )

как

координаты точки

n-мерного

евклидова

пространства. Функция

F(x1

, x2

,

, xn )

дает вероятность

попадания

точки

параллелепипед ξ1

x1,ξ2

x2

,

,ξn

xn

при такой интерпретации

(ξ1,ξ2 ,

,ξn )

в n-мерный

с ребрами, параллельными

осям координат.

Функция распределения, указывая на то, какие значения может принимать случайная величина и с какими вероятностями, представляет собой наиболее полную характеристику последней. Однако общую количественную характеристику о случайной величине могут дать некоторые постоянные числа, получаемые по определенным правилам из функций распределения. К числу этих постоянных относятся математическое ожидание и дисперсия.

Для произвольной случайной величины ξ с функций

распределения

F (x) математическим о жиданием называется

интеграл

 

 

 

 

xdF (x) .

 

 

Для непрерывных случайных величин, распределенных по

нормальному

закону, математическое ожидание равно

генеральному среднему, а его наилучшей точечной оценкой является выборочное среднее. Наилучшей точечной оценкой асимметрично распределенных непрерывных случайных величин является медиана.

Дисперсией случайной величины ξ называется математическое ожидание квадрата уклонения ξ от :

M (ξ

)

2

 

.

Соседние файлы в папке книги