Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Обработка эксперим данных Роганов

.pdf
Скачиваний:
23
Добавлен:
22.05.2015
Размер:
1.37 Mб
Скачать

P(A)=1 P(A)= lim(1 P(An ))= lim P(An )

n→∞

n→∞

Свойства 4 и 5 из § 6 можно понимать как свойства непрерывности вероятности относительно монотонных предельных переходов.

 

n

Действительно, если

A1 A2 ... An ... , то UA j = An , и множество

 

j=1

 

A = UA j естественно

назвать пределом монотонной последовательности

j=1

 

множеств A1 A2 ... An ... : A = lim A j . Тогда согласно свойству 4 из §

j→∞

6:

 

A

 

= lim P{A

}

P(A)= P lim

 

j→∞

 

j

j→∞

j

 

n

Точно так же, если A1 A2 ... An ... , то An = IA j , и множество

j=1

A = IA j называется пределом монотонной последовательности множеств

j=1

A1 A2

... An ... : A = lim A

. В данном

случае свойство 5 из § 6

 

j→∞ j

 

 

 

 

означает, что

 

 

 

 

 

P(A)

 

 

= lim P{Aj }.

 

= P lim

Aj

 

 

j→∞

 

 

j→∞

§ 7. Независимые события

События А и В называются независимыми [6], если

Р(АВ)=Р(А)Р(В).

Пусть последовательно бросаются две монеты: А – выпадение “герба” при первом бросании, В – выпадение “герба” при втором бросании.

21

Допустим, что Р(А)=Р(В)=1/2, Р(АВ)=1/4. В этом случае события А и В независимы.

Если А и В – независимые события, то также независимы Аи В, А и

В, Аи В. Эти три свойства доказываются аналогично, поэтому приведем доказательство лишь первого из них. Имеем B = ABUAB, (AB)(AB)= ,

откуда P(B)= P(AB)+ P(AB).

Значит,

P(AB)= P(B)P(AB)= P(B)P(A)P(B)= P(B)[1 P(A)]= P(B)P(A)

Итак, Аи В – независимые события.

Если А и В – не независимые события, то они называются зависимыми. Если А и В независимы, то говорят, что любое из них независимо (не зависит) от другого. Независимость – свойство взаимное: если А независимо от В, то и В независимо от А.

События Aα , α I , где I – конечное или счетное множество,

называются независимыми (в совокупности), если для любого конечного набора различных α1, α2 ,...,αn I

P(Aα1 Aα2 ...Aαn )= P(Aα1 )P(Aα2 )...P(Aαn )

События Aα , α I , где I – любое множество, называются попарно независимыми, если при любых α1 α2 , α1 I, α2 I

P(Aα1 , Aα2 )= P(Aα1 )P(Aα2 )

Пример. Для сигнализации об аварии установлены два независимо работающих сигнализатора. Вероятность того, что при аварии сигнализатор сработает, равна 0,95 для первого сигнализатора и 0,9 для второго. Найти вероятность того, что при аварии сработает только один сигнализатор.

Решение. Введем обозначения событий:

В1 – появилось событие А1

сработает только первый сигнализатор; В2

– появилось событие А2

сработает только второй сигнализатор.

 

 

22

Появление события В1 равносильно появлению события А1 А2

(появилось первое событие и не появилось второе), т.е. В1 = А1 А2 . Появление

события В2 равносильно появлению события А1 А2 (появилось второе

событие и не появилось первое), т.е. В2 = А1А2 .

Таким образом, чтобы найти вероятность появления только одного из

событий А1 и

А2 , достаточно найти вероятность

появления одного,

безразлично какого, из событий В1 и

В2 . События В1

и

В2 несовместны,

поэтому применима теорема сложения:

 

 

 

 

 

 

 

 

 

 

 

 

 

P(B1 + B2 )= P(B1 )+ P(B2 ).

 

 

(3)

Остается найти вероятности каждого из событий

В1

и В2 . События А1

и А2 независимы, следовательно, независимы события

А1 и

 

2 , а также

 

 

А

А1 и

А2 , поэтому применима теорема умножения:

 

 

 

 

 

 

 

 

P(B1 )= P(A1

 

 

)

= P(A1 )P(

 

)= p1q2 ;

 

 

A2

A2

 

P(B2 )= P(

 

A2 )

= P(

 

)P(A2 )= q1 p2 .

 

A1

A1

Подставив эти вероятности в соотношение (3), найдем искомую

вероятность появления только одного из событий А1 и А2 :

 

 

 

 

 

P(B1

+ B2 )= p1q2 + q1 p2

= 0,95 0,1 + 0,05 0,9 = 0,14.

§ 8. Условная вероятность

Пусть задано вероятностное пространство (Ω, Ξ, Ρ)и пусть А и В

произвольные события [2]. Если Р(В) > 0, то условная вероятность события А при условии, что произошло событие В, по определении полагается равной

P(A/ B)= P((AB)) P B

Умножив обе части этого равенства на Р(В), найдем

Р(АВ)=Р(В)Р(А/В).

23

Так как левая часть этого равенства симметрична относительно А и В, то можно записать

Р(АВ)=Р(А)Р(В/А).

Эта формула заменяет более простую формулу Р(АВ)=Р(А)Р(В), справедливую для независимых событий А и В, и называется правилом умножения вероятностей.

Пусть теперь A1,A2 ,...,An — произвольные события [6]. Обозначим

A1A2...Ai = Bi , 1 i n -1, A = A1A2...An и предположим, что

P(Bi > 0), 1 i n 1 . Тогда

P(A)= P(Bn1 An )= P(Bn1 )P(An / Bn1 ).

В свою очередь,

P(Bn1 )= P(Bn2 An1 )= P(Bn2 )P(An1 / Bn2 ),

так что

P(A)= P(Bn2 )P(An1 / Bn2 )P(An / Bn1 ).

Применив то же преобразование к P(Bn2 ), найдем

P(A)= P(Bn3 )P(An2 / Bn3 )P(An1 / Bn2 )P(An / Bn1 )

и т.д. Окончательно имеем

P(A)= P(A1 )P(A2 / B1 )P(A3 / B2 )... P(An / Bn1 ),

или, что то же,

P(A)= P(A1 )P(A2 / A1 )P(A3 / A1 A2 )... P(An / A1 An1 ).

Пример. Студент знает 20 из 25 вопросов программы. Найти вероятность того, что студент знает предложенные ему экзаменатором три вопроса.

Решение. Введем обозначения событий: А – студент знает ответ на первый вопрос; В – студент знает ответ на второй вопрос; С – студент знает ответ на третий вопрос. Вероятность того, что студент знает ответ на первый вопрос, P(A)= 20 / 25 .

24

Вероятность того, что студент знает ответ на второй вопрос при условии, что студенту известен ответ на первый вопрос, т.е. условная вероятность события В следующая: P(B / A)=19 / 24 .

Вероятность того, что студент знает ответ на третий вопрос при условии, что студенту известны ответы на первый и второй вопросы, т.е. условная вероятность события С такова: P(C / AB)=18 / 23 .

Искомая вероятность того, что студент знает ответы на все три вопроса, равна:

P(ABC)= P(A) P(B / A) P(C / AB)= 2025 1924 1823 = 11557 .

§ 9. Формула полной вероятности

Пусть с данным испытанием связана полная группа несовместных событий H1 , H2 , ... , вероятности которых P(Hk ) (k=1,2,…) известны [6].

Будем называть эти события гипотезами. Требуется найти вероятность события А, для которого известны условные вероятности P(A / Hk ) (k=1,2,…)

относительно всех событий H1 , H2 , ... .

Поскольку события H1, H2 ,... образуют полную группу, их объединение есть достоверное событие. Событие А может появиться только одновременно с каким-нибудь событием Hk . Таким образом, событие А есть

объединение

событий

AH1, AH2 ,..: A = AH1 UAH2 U... Так

как события

H1, H2 ,... по

условию

несовместны,

то события AH1, AH2 ,... тоже

несовместны,

и мы можем применить

аксиому сложения

вероятностей,

в соответствии с которой P(A)= P(AHk ). Применив к вероятностям P(AHk )

k

правило умножения, получаем

P(AHk )= P(Hk )P(A/ Hk ),

откуда P(A)= P(Hk )P(A/ Hk ).

k

Эта формула называется формулой полной вероятности.

25

P(A / Hk )

Итак, вероятность события А равна сумме вероятностей событий

H1, H2 ,... , умноженных на соответствующие условные вероятности события А.

Пример. Имеются две урны: в первой а белых шаров и b черных; во второй с белых и d черных. Из первой урны во вторую перекладывают, не глядя, три шара. После этого из второй урны берут один шар. Найти вероятность того, что этот шар будет белым.

Решение. Можно выдвинуть две гипотезы:

H1 – вынутый из 2-й урны шар принадлежит 1-й урне; H2 – вынутый из 2-й урны шар принадлежит 2-й урне. Так как во второй урне три шара принадлежат первой урне, а c +d – второй, то

P(H1 )=

3

; P(H2 )=

c + d

 

c + d +3

c + d +3 .

 

 

Вероятность появления белого шара из первой урны не зависит от того, вынимается ли этот шар непосредственно из первой урны или после перекладывания во вторую:

P(A/ H1 )=

a

 

;

P(A/ H2 )=

 

 

c

 

a +b

 

c + d ,

 

 

 

 

 

 

 

откуда

 

 

 

 

 

 

 

 

 

 

 

 

 

P(A)=

3

 

 

 

a

 

+

c + d

 

c

 

c + d +3

a +b

c + d +3

c + d .

 

 

 

 

§10. Формула Байеса

Взадачах практики нас часто интересует полная группа несовместных событий H1 , H2 , ... , вероятности которых P(Hk ) (k=1,2,…) известны [8]. Эти

события непосредственно не наблюдаемы, но можно наблюдать некоторое событие А, с ними связанное, для которого известны условные вероятности

(k=1,2,…). Допустим, что произведено испытание, в результате которого появилось событие А. На основании этого испытания требуется

26

H1 , H2 , ...

сделать выводы относительно событий H1 , H2 , ... , т.е. определить, как изменились их вероятности после произведенного испытания. Иначе говоря, нужно найти условные вероятности событий относительно события

А.

На основании правила умножения вероятностей

P(AHk )= P(A)P(Hk / A)= P(Hk )P(A/ Hk ).

Отсюда следует, что

P(Hk / A)=

P(Hk )P(A/ Hk )

 

 

P(A)

 

.

 

 

 

 

Подставляя сюда выражение вероятности события А из формулы

полной вероятности, получим

 

 

 

 

 

P(Hk / A)=

 

P(Hk )P(A/ H k )

 

 

P(Hi )P(A/ Hi

).

 

i

Эта формула носит название формулы Байеса.

Вероятности P(Hk ) (k=1,2,…) интересующих нас событий H1 , H 2 , ...

до испытания обычно называются априорными вероятностями от латинского a priori, что значит “сперва”, т.е. в данном случае до того, как был произведено испытание. Вероятности P(Hk / A) (k=1,2,…) тех же событий после испытания называются апостериорными от латинского a posteriori, что значит “после”, т.е. в данном случае после испытания.

Пример. Два автомата производят одинаковые детали, которые поступают на общий конвейер. Производительность первого автомата вдвое больше производительности второго. Первый автомат производит в среднем 60% деталей отличного качества, а второй – 84%. Наудачу взятая с конвейера деталь оказалась отличного качества. Найти вероятность того, что эта деталь произведена первым автоматом.

Решение. Обозначим через А событие – деталь отличного качества. Можно рассмотреть две гипотезы: Н1 – деталь произведена первым автоматом, причем (поскольку первый автомат производит вдвое больше

27

деталей, чем второй) P(H1 )= 2 / 3 ; Н2 – деталь произведена вторым автоматом, причем P(H 2 )=1/ 3 .

Условная вероятность того, что деталь будет отличного качества, если она произведена вторым автоматом, P(A/ H1 )= 0,6 .

Условная вероятность того, что деталь будет отличного качества, если она произведена вторым автоматом, P(A / H2 )= 0,84 .

Вероятность того, что наудачу взятая деталь окажется отличного качества, по формуле полной вероятности равна

P(A)= P(H1 ) P(A/ H1 )+ P(H 2 ) P(A/ H 2 )= 2 / 3 0,6 +1/ 3 0,84 = 0,68

Искомая вероятность того, что взятая отличная деталь произведена

первым автоматом, по формуле Байеса равна

 

 

P(H1 / A)= P(H1 ) P(A/ H1 )=

2 / 3 0 / 6

= 10

P(A)

0,68

17 .

§ 11. Повторение испытаний

Рассмотрим сложное испытание, состоящее из нескольких более простых испытаний, в каждом из которых может появиться или не появиться некоторое событие А [5].

Испытания называются независимыми, если вероятность интересующего нас события А в каждом испытании не зависит от результатов других испытаний. Предположим, что производятся n независимых испытаний, в каждом из которых вероятность появления события А равна р. Требуется найти вероятность Pn (k ) того, что при n

испытаниях событие А появится ровно k раз и, следовательно, не появится (n

k) раз. Подчеркнем, что не требуется, чтобы событие А повторилось ровно k раз в определенной последовательности.

Для того чтобы при n испытаниях событие А появилось k раз, необходимо и достаточно, чтобы появилась одна из последовательностей

28

событий B1,..., Bn , в которых k из событий

B1,..., Bn совпадают с А, а (n k)

— с противоположным событием

 

.

 

Очевидно, что число таких

А

последовательностей равно числу сочетаний из n по k:

k

 

 

n!

 

 

Сn

=

 

0!=1.

k!(n k )!

В силу независимости испытаний вероятность каждой такой последовательности по правилу умножения для независимых событий равна pkqnk , где q=1—p. Итак, в силу несовместности всех возможных

последовательностей искомая вероятность Pn (k )равна сумме вероятностей

всех последовательностей, состоящих из k событий А и (n k) событий А,

т.е. сумме Ckn слагаемых, равных pkqnk :

P

(k )= Сk pk qnk =

n!

 

 

pk qnk ( k = 0, 1, ..., n)

k!(n k )!

n

n

 

 

 

 

Полученную формулу называют

формулой Бернулли. Соответствие

между числами k=0,1,…,n и вероятностями pn (k ), определяемое формулой Бернулли, называется биномиальным распределением.

Возьмем теперь вспомогательную переменную u и заметим, что величина P(kuk )= Сnk pk qnk uk представляет собой общий член разложения функции (q + pu)n по формуле бинома Ньютона [8].

Таким образом, вероятность Pn (k ) представляет собой коэффициент при uk в разложении функции

ϕn (u)= (q + pu)n

по степеням u.

Функция ϕn (u) называется производящей функцией для вероятностей Pn (k ).

Элементарными событиями в данном случае служат все конечные последовательности {B1 , ..., Bn }, где каждое Bm представляет собой событие

29

А или противоположное событие A . Полем событий Ξ служит алгебра всех возможных объединений этих элементарных событий, дополненных невозможным событием. Вероятность каждого элементарного события равна pk qnk , где k – число событий Bm в последовательности {B1 ,..., Bn },

совпадающих с А (k=0,1,…,n). Вероятность любого события определяется как сумма вероятностей входящих в него элементарных событий.

Пример. Вероятность того, что расход электроэнергии в продолжение одних суток не превысит установленной нормы, равна р= 0,75 . Найти вероятность того, что в ближайшие 6 суток расход электроэнергии в течение 4 суток не превысит нормы.

Решение. Вероятность нормального расхода электроэнергии в продолжение каждых из 6 суток постоянна и равна р= 0,75 . Следовательно,

вероятность перерасхода электроэнергии в каждые сутки также постоянна и равна q =1p =10,75 = 0,25.

Искомая вероятность по формуле Бернулли равна

P

(A)= C 4 p4q2

= 6 5 (0,75)4 (0,25)2

= 0,3

6

6

1 2

.

 

 

§ 12. Вероятность появления события не меньше данного числа раз

Во многих задачах практики приходится определять вероятность того, что интересующее нас событие А появится при n экспериментах не меньше чем данное число m раз [8].

Сложное событие – появление события А не меньше чем m раз – представляет собой объединение nm+1 несовместных событий: появление А ровно m раз, появление А ровно m+1 раз, и т.д., появление А ровно n раз.

Поэтому искомая вероятность Rn (m) того, что при n экспериментах событие А появится не меньше чем m раз, равна

n

Rn (m)= Pn (m)+ Pn (m +1)+...+ Pn (n)= Pn (k )

k =m

30