Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Лекция по теории вероятности.doc
Скачиваний:
0
Добавлен:
01.04.2025
Размер:
1.09 Mб
Скачать

Биномиальное распределение.

Пример. Составить закон распределения числа попаданий в цель при четырех выстрелах, если вероятность попасть при одном выстреле равна 0,1.

Решение. СВ Х может принимать 5 различных значений:0,1,2,3,4.Соответствующие вероятности найдем по формуле Бернулли при n=4;р=0,1;q=1-0,1=0,9 и к=0.1,1,2,3,4:

Р4(0)=0,94=0,6561; Р4(1)=4·0,1·0,93=0,2916;

Р4(2)=6·0,12·0,92=0,0486; Р4(3)=4·0,13·0,9=0,0036;

Р4(4)=0,14=0,0001.

Закон распределения имеет вид:

Число попаданий

0

1

2

3

4

Вероятность

0.6561

0,2916

0.0486

0.0036

0,0001

Можно обобщить результат примера и получить закон распределения числа наступлений события А в независимых испытаниях, в каждом из которых оно может наступить с постоянной вероятностью p и не наступает с вероятностью q=1-p.

Число наступлений события А-дискретная СВ., которая может принимать значения 0,1,2,…,n с вероятностями, определяемыми по закону Бернулли:

P(x=k)=Cnk pk qn-k (k= )

Это и есть ее закон распределения, который называется биномиальным. Правую часть равенства можно рассматривать бинома Ньютона:

(р+q)nn pn+Cnn-1pn-1 q+…+ Cn0 qn

Независимость случайных величин.

Дискретные СВ Х и Y называются независимыми, если при любых i и j события Х=хi и

Yj (i= ; j= ) независимы.

Пример: независимыми являются СВ Х1 и Х2,выражающие размер выигрыша на приобретенные два билета(соответственно на первый и второй)денежно-вещевой лотереи различных выпусков. Если на первый билет выпал выигрыш, т.е. Х1 приняла некоторое значение, то закон распределения Х2 не изменится. Если же Х1 и Х2 означают выигрыш на два купленных билета лотереи одного и того же выпуска, то Х1 и Х2 являются зависимыми СВ.

Пусть имеются две СВ: Х может принимать значенияx xi с вероятностями pi (i= ), Y-значения уj с вероятностями pj( j= ).Рассмотрим событие Сij ,являющиеся произведением двух событий: Х=хi и Yj. Вероятность этого события:

pij = P(X=xi;Y=уj)

Рассмотрим условную вероятность события Y=уj относительно события Х=xi:

P(Y=yj / X=xi ) =

Совокупность вероятностей Р (Y=yj /X=xi) при всех j= и значений СВ Y составляет ее условный закон распределения в предположении, что СВ Х приняла значение xi.Из последней формулы следует, что

рij=P (X=xi;Y=yj)=p(X=xiP(Y=yj /X=xi)

Обозначим через А событие Х=xi. Его вероятность можно представить в виде

P(A)=P(X=xi)=pi= =pi1+pi2+...+pin, поскольку правую часть можно записать так:

P(X=xi; Y=y1) + P(X=xi; Y=y2) +...+P(X=xi; Y=yn)

События в скобках несовместны, поэтому последняя сумма выражает вероятность события В, состоящего в том, что произойдет какое-либо одно из n событий (X=xi; Y=yj), j= .

Покажем, что события А и В эквивалентны. Пусть имело место событие А.Поскольку СВ Y обязательно примет одно из своих возможных значений, то произойдет одно из событий (X=xi;Y=yj), j= ,т.е. наступит событие В. Пусть произойдет событие В, т.е. имеет место одно из событий (X=xi;Y=yj), j= , следовательно, произошло и событие X=xi, т.е. А. Из эквивалентности А и В следует равенство их вероятностей и справедливость последнего равенства.

Аналогично можно доказать, что

=

Если СВ Х и Y независимы, то для вероятности события Сij (i= ; j= )имеет место соотношение:

=