Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
vesnina / Пз 2 / 6_Теор_вер_Статист.doc
Скачиваний:
19
Добавлен:
23.05.2015
Размер:
2.08 Mб
Скачать

§ 1. ОСНОВНЫЕ ПОНЯТИЯ      1. Случайные события. Частота. Вероятность.     Теория вероятностей — математическая наука, изучающая закономерности массовых случайных явлений (событий).      Случайным событием (или просто событием) называется всякое явление, которое может произойти или не произойти при осуществлении определенной совокупности условий. Теория вероятностей имеет дело с такими событиями, которые имеют массовый характер. Это значит, что данная совокупность условий может быть воспроизведена неограниченное число раз. Каждое такое осуществление данной совокупности условий называют испытанием (или опытом).      Если, например, испытание состоит в бросании монеты, то выпадение герба является событием; если испытание — изготовление подшипника данного типа, то соответствие подшипника стандарту — событие; если испытание — бросание игральной кости, т. е. кубика, на гранях которого проставлены цифры (очки) от 1 до 6, to выпадение пятерки — событие.      События будем обозначать заглавными буквами латинского алфавита: AВС, ... .      Пусть при n испытаниях событие A появилось m раз.      Отношение m/n называется частотой (относительной частотой) события A и обозначается Р*(А)=m/n      Опыт показывает, что при многократном повторении испытаний частота Р*(А) случайного события обладает устойчивостью. Поясним это на примере.      Пусть при бросании монеты 4040 раз герб выпал 2048 раз. Частота появления герба в данной серии опытов равна Р*(А)=m/n=2048/4040=0,5069. При бросании той же монеты 12000 раз герб выпал 6019 раз. Следовательно, в этом случае частота Р*(А)=6019/12000=0,5016. Наконец, при 24000 бросаний герб появился 12012 раз с частотой Р*(А)=0,5005. Таким образом, мы видим, что при большом числе бросаний монеты частота появления герба обладает устойчивостью, т. е. мало отличается от числа 0,5. Как показывает опыт, это отклонение частоты от числа 0,5 уменьшается с увеличением числа испытаний. Наблюдаемое в этом примере свойство устойчивости частоты является общим свойством массовых случайных событий, а именно, всегда существует такое число, к которому приближается частота появления данного события, мало отличаясь от него при большом числе испытаний. Это число называетсявероятностью события. Оно выражает объективную возможность появления события. Чем больше вероятность события, тем более возможным оказывается его появление. Вероятность события A будем обозначать через Р(А). В рассмотренном выше примере вероятность появления герба, очевидно, равна 0,5.      Событие называется достоверным, если оно в данном опыте обязательно должно произойти; наоборот, событие называетсяневозможным, если оно в данном опыте не может произойти.      Пусть, например, из урны, содержащей только черные шары, вынимают шар. Тогда появление черного шара — достоверное событие; появление белого шара — невозможное событие.      Если событие достоверно, то оно произойдет при каждом испытании (m=n). Поэтому частота достоверного события всегда равна единице. Наоборот, если событие невозможно, то оно ни при одном испытании не осуществится (m=0). Следовательно, частота невозможного события в любой серии испытаний равна нулю. Поэтому вероятность достоверного события равна единице, а вероятность невозможного события равна нулю.      Если событие A не является ни достоверным, ни невозможным, то его частота m/n при большом числе испытаний будет мало отличаться от некоторого числа p (где 0 < p < 1 ) — вероятности события A.      Совмещением (или произведением) двух событий A и В называется событие, состоящее в совместном наступлении как события A, так и события В. Это событие будем обозначать АВ или ВА.      Аналогично, совмещением нескольких событий, например AВ и С, называется событие D=ABC, состоящее в совместном наступлении событий AВ и С.      Объединением (или суммой) двух событий A и В называется событие С, заключающееся в том, что произойдет по крайней мере одно из событий A или В. Это событие обозначается так: С=А+В.      Объединением нескольких событий называется событие, состоящее в появлении по крайней мере одного из них. Запись D=A+B+Cозначает, что событие D есть объединение событий AВ и С.      Два события A и В называются несовместными, если наступление события A исключает наступление события В. Отсюда следует, что если события A и В несовместны, то событие AB — невозможное. 

   Рассмотрим следующий пример. Будем следить за движением какой-нибудь определенной молекулы газа, заключенного в некоторый объем. Внутри этого объема выделим объемы  и , частично перекрывающие друг друга (рис. 1). Пусть событие A — попадание молекулы в объем , событие В — попадание молекулы в объем . Совмещением событий A и В является попадание молекулы в общую часть объемов  и . Если объемы  и  не имеют общих точек, то ясно, что события A и В несовместны. Объединением событий A и В является попадание молекулы или только в объем  или только в объем , или же в их общую часть.

 

   2. Аксиомы вероятностей.     Пусть A и B — два несовместных события, причем в n испытаниях событие A произошло m1 раз, а событие В произошло m2 раз. Тогда частоты событий A и В соответственно равны P*(A)=m1/nP*(B)=m2/n. Так как события A и В несовместны, то событие A+B в данной серии опытов произошло m1+m2 раз. Следовательно,

   Таким образом, частота события A+B равна сумме частот событий A и В. Но при больших n частоты P*(A)P*(B) и P*(A+B) мало отличаются от соответствующих вероятностей P(A)P(B) и P(A+B). Поэтому естественно принять, что если A и В — несовместные события, то P(A+B)=P(A)+P(B)     Изложенное позволяет высказать следующие свойства вероятностей, которые мы принимаем в качестве аксиом.     Аксиома 1. Каждому случайному событию A соответствует определенное число Р(А), называемое его вероятностью и удовлетворяющее условию .     Аксиома 2. Вероятность достоверного события равна единице.     Аксиома 3 (аксиома сложения вероятностей). Пусть A и В — несовместные события. Тогда вероятность того, что произойдет хотя бы одно из этих двух событий, равна сумме их вероятностей:

P(A+B)=P(A)+P(B)

(1)

   Аксиома 3 допускает обобщение на случай нескольких событий, а именно: если события A1, A2, ..., An, попарно несовместны, то

(2)

   Событием, противоположным событию , называется событие , состоящее в ненаступлении события . Очевидно, события  и несовместны.     Пусть, например, событие  состоит в том, что изделие удовлетворяет стандарту; тогда противоположное событие  заключается в том, что изделие стандарту не удовлетворяет. Пусть событие  — выпадение четного числа очков при однократном бросании игральной кости; тогда  — выпадение нечетного числа очков.     Теорема 1. Для любого события  вероятность противоположного события  выражается равенством

(3)

   Доказательство. Событие +, состоящее в наступлении или события , или события , очевидно, является достоверным. Поэтому на основании аксиомы 2 имеем Р(+)=1. Так как события  и  несовместны, то используя аксиому 3, получим Р(+)=Р()+P(). Следовательно, Р()+P()=1, откуда .     Теорема 2. Вероятность невозможного события равна нулю.     Доказательство непосредственно следует из аксиомы 2 и теоремы 1, если заметить, что невозможное событие противоположно достоверному событию. 

   3. Классическое определение вероятности.     Как было сказано выше, при большом числе n испытаний частота P*(A)=m/n появления события A обладает устойчивостью и дает приближенное значение вероятности события A, т.е. .     Это обстоятельство позволяет находить приближенно вероятность события опытным путем. Практически такой способ нахождения вероятности события не всегда удобен. В ряде случаев вероятность события удается определить до опыта с помощью понятия равновероятности событий (или равновозможности).     Два события называются равновероятными (или равновозможными), если нет никаких объективных причин считать, что одно из них может наступить чаще, чем другое.     Так, например, появления герба или надписи при бросании монеты представляют собой равновероятные события.     Рассмотрим другой пример. Пусть бросают игральную кость. В силу симметрии кубика можно считать, что появление любой из цифр 1, 2, 3, 4, 5 или 6 одинаково возможно (равновероятно).     События E1,E2, ..., EN в данном опыте образуют полную группу, если в результате опыта должно произойти хотя бы одно из них.     Так, в последнем примере полная группа событий состоит из шести событий — появлений цифр 1, 2, 3, 4, 5 и 6.     Очевидно, любое событие A и противоположное ему событие  образуют полную группу.     Событие B называется благоприятствующим событию A, если наступление события B влечет за собой наступление события A.     Так, если A — появление четного числа очков при бросании игральной кости, то появление цифры 4 представляет собой событие, благоприятствующее событию A.     Пусть события E1,E2, ..., EN в данном опыте образуют полную группу равновероятных и попарно несовместных событий. Будем называть их исходами испытания. Предположим, что событию A благоприятствуют M исходов испытания. Тогда вероятностью события A в данном опыте называют отношение M/N. Итак, мы приходим к следующему определению.     Вероятностью P(A) события в данном опыте называется отношение числа M исходов опыта, благоприятствующих событию A, к общему числу N возможных исходов опыта, образующих полную группу равновероятных попарно несовместных событий:

   Это определение вероятности часто называют классическим. Можно показать, что классическое определение удовлетворяет аксиомам вероятности. 

Пример 1. На завод привезли партию из 1000 подшипников. Случайно в эту партию попало 30 подшипников, не удовлетворяющих стандарту. Определить вероятность P(A) того, что взятый наудачу подшипник окажется стандартным.     Решение: Число стандартных подшипников равно 1000—30=970. Будем считать, что каждый подшипник имеет одинаковую вероятность быть выбранным. Тогда полная группа событий состоит из N=1000 равновероятных исходов, из которых событию A благоприятствуютМ=970 исходов. Поэтому P(A)=M/N=970/1000=0.97 ) 

  Пример 2. В урне 10 шаров: 3 белых и 7 черных. Из урны вынимают сразу два шара. Какова вероятность р того, что оба шара окажутся белыми?     Решение: Число N всех равновероятных исходов испытания равно числу способов, которыми можно из 10 шаров вынуть два, т. е. числу сочетаний из 10 элементов по 2:

   Число благоприятствующих исходов:

   Следовательно, искомая вероятность

 Пример 3. В урне 2 зеленых, 7 красных, 5 коричневых и 10 белых шаров. Какова вероятность появления цветного шара?     Решение: Находим соответственно вероятности появления зеленого, красного и коричневого шаров: Р(зел.)=2/24Р(кр.)=7/24Р(кор.)=5/24. Так как рассматриваемые события, очевидно, несовместны, то, применяя аксиому сложения, найдем вероятность появления цветного шара:

 4. Условная вероятность. Теорема умножения вероятностей.     Во многих задачах приходится находить вероятность совмещения событий А и В, если известны вероятности событий А и В.     Рассмотрим следующий пример. Пусть брошены две монеты. Найдем вероятность появления двух гербов. Мы имеем 4 равновероятных попарно несовместных исхода, образующих полную группу:   

 

 1-я монета 

 2-я монета 

 1-й исход 

герб

герб

2-й исход

герб

надпись

3-й исход

надпись

герб

4-й исход

надпись

надпись

   Таким образом, P(герб,герб)=1/4.     Пусть теперь нам стало известно, что на первой монете выпал герб. Как изменится после этого вероятность того, что герб появится на обеих монетах? Так как на первой монете выпал герб, то теперь полная группа состоит из двух равновероятных несовместных исходов:   

 

 1-я монета 

 2-я монета 

 1-й исход 

герб

герб

2-й исход

герб

надпись

   При этом только один из исходов благоприятствует событию (герб, герб). Поэтому при сделанных предположениях Р(герб,герб)=1/2. Обозначим через А появление двух гербов, а через В — появление герба на первой монете. Мы видим, что вероятность события Аизменилась, когда стало известно, что событие B произошло.     Новую вероятность события А, в предположении, что произошло событие B, будем обозначать PB(А).     Таким образом, Р(A)=1/4; PB(А)=1/2     Теорема умножения. Вероятность совмещения событий А и В равна произведению вероятности одного из них на условную вероятность другого, вычисленную в предположении, что первое событие осуществилось, т. е.

P(AB)=P(A)PA(B)

(4)

   Доказательство. Докажем справедливость соотношения (4), опираясь на классическое определение вероятности. Пусть возможные исходы Е1Е2, ..., ЕN данного опыта образуют полную группу равновероятных попарно несовместных событий, из которых событию Aблагоприятствуют M исходов, и пусть из этих M исходов L исходов благоприятствуют событию B. Очевидно, что совмещению событий A и Bблагоприятствуют L из N возможных результатов испытания. Это дает

;

   Таким образом,

   Поменяв местами A и B, аналогично получим

(5)

   Из формул (4) и (5) имеем

(6)

   Теорема умножения легко обобщается на любое , конечное число событий. Так, например, в случае трех событий A1A2A3 имеем *

   В общем случае

(7)

   Введем теперь следующее определение.     Два события A и B называются независимыми, если предположение о том, что произошло одно из них, не изменяет вероятность другого, т. е. если

и 

(8)

   Из соотношения (6) вытекает, что из двух равенств (8) одно является следствием другого.     Пусть, например, событие A — появление герба при однократном брссании монеты, а событие B — появление карты бубновой масти при вынимании карты из колоды. Очевидно, что события A и B независимы.     В случае независимости событий A к B формула (4) примет более простой вид:

(9)

   т. е. вероятность совмещения двух независимых событий равна произведению вероятностей этих событий.     События А1А2, ..., Аn называются независимыми в совокупности, если вероятность наступления каждого из них не меняет своего значения после того, как одно или несколько из остальных событий осуществились.     Исходя из этого определения, в случае независимости событий А1А2, ..., Аn между собой в совокупности на основании формулы (7) имеем

(10)

 Пример 1. Какова вероятность того, что при десятикратном бросании монеты герб выпадет 10 раз ?     Решение: Пусть событие Ai — появление герба при i-м бросании. Искомая вероятность есть вероятность совмещения всех событий Ai(i=1,2,3,...,10), а так как они, очевидно, независимы в совокупности, то применяя формулу (10), имеем   

   Но P(Ai)=1/2 для любого i; поэтому

  Пример 2. Рабочий обслуживает три станка, работающих независимо друг от друга. Вероятность того, что в течение часа станок не потребует внимания рабочего, для первого станка равна 0,9, для второго — 0,8, для третьего — 0,7. Найти: 1) вероятность р того, что в течение часа ни один из трех станков не потребует внимания рабочего; 2) вероятность того, что в течение часа по крайней мере один из станков не потребует внимания рабочего.     Решение:     1) Искомую вероятность р находим по формуле (10): 

   2) Вероятность того, что в течение часа станок потребует внимания рабочего для первого станка равна 1—0,9=0,1, для второго и для третьего станков она соответственно равна 1—0,8=0,2 и 1—0,7=0,3. Тогда вероятность того, что в течение часа все три станка потребуют внимания рабочего, на основании формулы (10) составляет 

   Событие A, заключающееся в том, что в течение часа все три станка потребуют внимания рабочего, противоположно событию , состоящему в том, что по крайней мере один из станков не потребует внимания рабочего. Поэтому по формуле (3) получаем   

 Пример 3. Из урны, содержащей 3 белых и 7 черных шаров, вынимают два шара. Какова вероятность того, что оба шара окажутся белыми ?     Решение: Эта задача уже была решена в п. 3 с помощью классического определения вероятности. Решим ее, применяя формулу (5). Извлечение двух шаров равносильно последовательному их извлечению. Обозначим через А появление белого шара при первом извлечении, а через В — при втором. Событие, состоящее в появлении двух белых шаров, является совмещением событий А и В. По формуле (5) имеем   

   Но Р(А)=3/10; РA(В)=2/9, поскольку после того, как был вынут первый белый шар, в урне осталось 9 шаров, из которых 2 белых. Следовательно,   

  5. Формула полной вероятности.     Пусть событие A может произойти только вместе с одним из попарно несовместных событий H1H2, ..., Hn, образующих полную группу. Тогда, если произошло событие A, то это значит, что произошло одно из попарно несовместных событий H1AH2A, ..., HnA. Следовательно,

   Применяя аксиому сложения вероятностей, имеем

   Но  (i=1, 2, ..., n), поэтому

(11)

   Эта формула называется формулой полной вероятности. События H1H2, ..., Hn часто называют «гипотезами». 

Пример. В магазин поступили электрические лампочки одного типа, изготовленные на четырех ламповых заводах: с 1-го завода 250 шт., со 2-го — 525 шт., с 3-го — 275 шт. и с 4-го — 950 шт. Вероятность того, что лампочка прогорит более 1500 часов, для 1-го завода равна 0,15, для 2-го — 0,30, для 3-го — 0,20, для 4-го — 0,10. При раскладке по полкам магазина лампочки были перемешаны. Какова вероятность того, что купленная лампочка прогорит более 1500 часов?     Решение: Пусть A — событие, состоящее в том, что лампочка прогорит более 1500 часов, а Н1Н2Н3 и Н4 — гипотезы, что она изготовлена соответственно 1, 2, 3 или 4-м заводом. Так как всего лампочек 2000 шт., то вероятности гипотез соответственно равны

   Далее, из условия задачи следует, что

   Используя формулу полной вероятности (11), имеем

   6. Формула Бейеса.     Предположим, что производится некоторый опыт, причем об условиях его проведения можно высказать n единственно возможных и несовместных гипотез , имеющих вероятности . Пусть в результате опыта может произойти или не произойти событиеА, причем известно, что если опыт происходит при выполнении гипотезы , то      Спрашивается, как изменятся вероятности гипотез, если стало известным, что событие А произошло? Иными словами, нас интересуют значения вероятностей .     На основании соотношений (4) и (5) имеем   

   откуда

   Но по формуле полной вероятности

   Поэтому

(12)

   Формула (12) называется формулой Бейеса*

 Пример. На склад поступило 1000 подшипников. Из них 200 изготовлены на 1-м заводе, 460—на 2-м и 340 - на 3-м. Вероятность того, что подшипник окажется нестандартным, для 1-го завода равна 0,03, для 2-го — 0,02, для 3-го — 0,01. Взятый наудачу подшипник оказался нестандартным. Какова вероятность того, что он изготовлен 1-м заводом?     Решение: Пусть A — событие, состоящее в том, что взятый Подшипник нестандартный, а  - гипотезы, что он изготовлен соответственно 1-м, 2-м или 3-м заводом. Вероятности указанных гипотез составляют

   Из условия задачи следует, что

   Найдем , т. е. вероятность того, что подшипник, оказавшийся нестандартным, изготовлен 1-м заводом. По формуле Бейеса имеем

   Таким образом, вероятность гипотезы, что подшипник изготовлен 1-м заводом, изменилась после того, как стало известно, что он нестандартен.

§ 2. ПОСЛЕДОВАТЕЛЬНЫЕ ИСПЫТАНИЯ. ФОРМУЛА БЕРНУЛЛИ.     Предположим, что производится n независимых испытаний, в результате каждого из которых может наступить или не наступить некоторое событие A. Пусть при каждом испытании вероятность наступления события А равна P(A)=p и, следовательно, вероятность противоположного события (ненаступления А) равна . Определим вероятность Pn(m) того, что событие А произойдет m раз при n испытаниях. При этом заметим, что наступления или ненаступления события А могут чередоваться различным образом. Условимся записывать возможные результаты испытаний в виде комбинаций букв А и . Например, запись  означает, что в четырех испытаниях событие осуществилось в 1-м и 4-м случаях и не осуществилось во 2-м и 3-м случаях.     Всякую комбинацию, в которую А входит m раз и  входит n-m раз, назовем благоприятной. Количество благоприятных комбинаций равно количеству k способов, которыми можно выбрать m чисел из данных n; таким образом, оно равно числу сочетаний из n элементов по m, т.е.

   Подсчитаем вероятности благоприятных комбинаций. Рассмотрим сначала случай, когда событие A происходит в первых m испытаниях и, следовательно, не происходит в остальных n-m испытаниях. Такая благоприятная комбинация имеет следующий вид:

   Вероятность этой комбинации в силу независимости испытаний (на основании теоремы умножения вероятностей) составляет

   Так как в любой другой благоприятной комбинации Вi событие A встречается также m раз, а событие  происходит n-m раз, то вероятность каждой из таких комбинаций также равна . Итак

   Все благоприятные комбинации являются, очевидно, несовместными. Поэтому (на основании аксиомы сложения вероятностей)

   Следовательно,

(13)

   или, так как

, то

(13')

   Формула (13) называется формулой Бернулли *

 Пример 1. Вероятность попадания в цель при одном выстреле равна 0,6. Какова вероятность того, что 8 выстрелов дадут 5 попаданий?     Решение: Здесь     n=8;     m=5;     p=0,6;     q=1-0,6=0,4.     Используя формулу (13'), имеем

Часто необходимо знать, при каком значении m вероятность принимает наибольшее значение, т. е. требуется найти наивероятнейшее число  наступления события A в данной серии опытов. Можно доказать, что число  должно удовлетворять двойному неравенству

(14)

   Заметим, что сегмент [np-q;np+p], в котором лежит , имеет длину (np+p)-(np-q)=p+q=1. Поэтому, если какой-либо из его концов не является целым числом, то между этими концами лежит единственное целое число, и  определено однозначно. В том случае, если оба конца — целые числа, имеются два наивероятнейших значения: np-q и np+p

 Пример 2. Определить наивероятнейшее число попаданий в цель в примере 1.     Решение: Здесь     n=8;     p=0,6;     q=0,4;     np-q=8*0,6-0,4=4,4;     np+p=8*0,6+0,6=5,4.     Согласно формуле (14) наивероятнейшее значение  лежит на сегменте [4.4;5.4] и, следовательно равно 5

  При больших значениях n подсчет вероятностей Pn(m) по формуле (13) связан с громоздкими вычислениями. В этом случае удобнее пользоваться следующей формулой:

(15)

   , где

(p не равно нулю и единице), a

   Формула (15) выражает так называемую локальную теорему Лапласа **. Точность этой формулы повышается с возрастанием n.     Функция , как мы увидим в дальнейшем, играет очень большую роль в теории вероятностей. Ее значения при различных значениях аргумента приведены в Приложении (см. табл. I). 

 Пример 3. Игральную кость бросают 80 раз. Определить вероятность того, что цифра 3 появится 20 раз.     Решение: Здесь     m=20;     n=80;     p=1/6;     q=1-1/6=5/6;     далее находим

   Используя формулу (15), получим

   так как из табл. I находим, что

Я. Бернулли (1654-1705) - швейцарский математик.  ** П. Лаплас (1749—1827) — французский математик и астроном.

§ 3. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ     Понятие случайной величины является основным в теории вероятностей и ее приложениях. Случайными величинами, например, являются число выпавших очков при однократном бросании игральной кости, число распавшихся атомов радия за данный промежуток времени, число вызовов на телефонной станции за некоторый промежуток времени, отклонение от номинала некоторого размера детали при правильно налаженном технологическом процессе и т. д.     Таким образом, случайной величиной называется переменная величина, которая в результате опыта может принимать то или иное числовое значение.     В дальнейшем мы рассмотрим два типа случайных величин — дискретные и непрерывные.     1. Дискретные случайные величины.     Рассмотрим случайную величину * , возможные значения которой образуют конечную или бесконечную последовательность чисел x1, x2, ..., xn, ... . Пусть задана функция p(x), значение которой в каждой точке x=xi (i=1,2, ...) равно вероятности того, что величина примет значение xi

(16)

   Такая случайная величина  называется дискретной (прерывной). Функция р(х) называется законом распределения вероятностей случайной величины, или кратко, законом распределения. Эта функция определена в точках последовательности x1, x2, ..., xn, ... . Так как в каждом из испытаний случайная величина  принимает всегда какое-либо значение из области ее изменения, то

Пример 1. Случайная величина  — число очков, выпадающих при однократном бросании игральной кости. Возможные значения  — числа 1, 2, 3, 4, 5 и 6. При этом вероятность того, что  примет любое из этих значений, одна и та же и равна 1/6. Какой будет закон распределения ?     Решение: Таким образом, здесь закон распределения вероятностей есть функция р(х)=1/6 для любого значения х из множества {1, 2, 3, 4, 5, 6}. 

   Пример 2. Пусть случайная величина  - число наступления события A при одном испытании, причем P(A)=p. Множество возможных значений  состоит из 2-х чисел 0 и 1: =0, если событие A не произошло, и =1, если событие A произошло. Таким образом,

   Предположим, что производится n независимых испытаний, в результате каждого из которых может наступить или не наступить событиеA. Пусть вероятность наступления события A при каждом испытании равна p. Рассмотрим случайную величину  — число наступлений события A при n независимых испытаниях. Область изменения  состоит из всех целых чисел от 0 до n включительно. Закон распределения вероятностей р(m) определяется формулой Бернулли (13'):

   Закон распределения вероятностей по формуле Бернулли часто называют биномиальным, так как Pn(m) представляет собой m-й член разложения бинома .     Пусть случайная величина  может принимать любое целое неотрицательное значение, причем

(17)

   где  — некоторая положительная постоянная. В этом случае говорят, что случайная величина  распределена по закону Пуассона, Заметим, что при k=0 следует положить 0!=1.     Как мы знаем, при больших значениях числа n независимых испытаний вероятность Pn(m) наступления m раз события A удобнее находить не по формуле Бернулли, а по формуле Лапласа [см. формулу (15)]. Однако последняя дает большие погрешности при малой вероятности р появления события А в одном испытании. В этом случае для подсчета вероятности Pn(m) удобно пользоваться формулой Пуассона, в которой следует положить .     Формулу Пуассона можно получить как предельный случай формулы Бернулли при неограниченном увеличении числа испытаний n и при стремлении к нулю вероятности 

   Пример 3. На завод прибыла партия деталей в количестве 1000 шт. Вероятность того, что деталь окажется бракованной, равна 0,001. Какова вероятность того, что среди прибывших деталей будет 5 бракованных?     Решение:     Здесь .     По формуле (17) находим

Распределение Пуассона часто встречается и в других задачах. Так, например, если телефонистка в среднем за один час получает Nвызовов, то, как можно показать, вероятность Р(k) того, что в течение одной минуты она получит k вызовов, выражается формулой Пуассона, если положить .

   Если возможные значения случайной величины  образуют конечную последовательность x1, x2, ..., xn, то закон распределения вероятностей случайной величины задают в виде следующей таблицы, в которой

и

 

Значения 

x1

x2

...

xn

Вероятности p(xi)

p1

p2

...

pn

    Эту таблицу называют рядом распределения случайной величины . Наглядно функцию р(х) можно изобразить в виде графика. Для этого возьмем прямоугольную систему координат на плоскости.     По горизонтальной оси будем откладывать возможные значения случайной величины , а по вертикальной оси - значения функции . График функции р(х) изображен на рис. 2. Если соединить точки этого графика прямолинейными отрезками, то получится фигура, которая называется многоугольником распределения

Пример 4. Пусть событие А — появление одного очка при бросании игральной кости; Р(A)=1/6. Рассмотрим случайную величину  — число наступлений события А при десяти бросаниях игральной кости. Значения функции р(х) (закона распределения) приведены в следующей таблице:   

Значения 

0

1

2

3

4

5

6

7

8

9

10

Вероятности p(xi)

0,162

0,323

0,291

0,155

0,054

0,013

0,002

0

0

0

0

   Вероятности p(xi) вычислены по формуле Бернулли при n=10. Для x>6 они практически равны нулю. График функции p(x) изображен на рис. 3. 

Дальше...

   * Случайные величины будем обозначать малыми буквами греческого алфавита: , ... .

§ 3. СЛУЧАЙНЫЕ ВЕЛИЧИНЫ     2. Функция распределения вероятностей случайной величины и ее свойства.     Рассмотрим функцию F(х), определенную на всей числовой оси следующим образом: для каждого х значение F(х) равно вероятности того, что дискретная случайная величина  примет значение, меньшее х, т. е.

(18)

   Эта функция называется функцией распределения вероятностей, или кратко, функцией распределения

 Пример 1. Найти функцию распределения случайной величины , приведенной в примере 1, п. 1.     Решение: Ясно, что если , то F(x)=0, так как  не принимает значений, меньших единицы. Если , то ; если , то . Но событие <3 в данном случае является суммой двух несовместных событий: =1 и =2. Следовательно,

   Итак для  имеем F(x)=1/3. Аналогично вычисляются значения функции в промежудках  и . Наконец, если x>6 то F(x)=1, так как в этом случае любое возможное значение  (1, 2, 3, 4, 5, 6) меньше, чем x. График функции F(x) изображен на рис. 4.   

Пример 2. Найти функцию распределения случайной величины , приведенной в примере 2, п. 1.     Решение: Очевидно, что

   График F(x) изображен на рис. 5.   

 Зная функцию распределения F(x), легко найти вероятность того, что случайная величина  удовлетворяет неравенствам .     Рассмотрим событие, заключающееся в том, что случайняя величина примет значение, меньшее . Это событие распадается на сумму двух несовместных событий: 1) случайная величина  принимает значения, меньшие , т.е. ; 2) случайная величина  принимает значения, удовлетворяющие неравенствам . Используя аксиому сложения, получаем

   Отсюда

   Но по определению функции распределения F(x) [см. формулу (18)], имеем ; cледовательно,

(19)

   Таким образом, вероятность попадания дискретной случайной величины в интервал  равна приращению функции распределения на этом интервале.     Рассмотрим основные свойства функции распределения.     1°. Функция распределения является неубывающей.     В самом деле, пусть <. Так как вероятность любого события неотрицательна, то . Поэтому из формулы (19) следует, что , т.е. .     2°. Значения функции распределения удовлетворяют неравенствам .     Это свойство вытекает из того, что F(x) определяется как вероятность [см. формулу (18)]. Ясно, что *  и .     3°. Вероятность того, что дискретная случайная величина  примет одно из возможных значений xi, равна скачку функции распределения в точке xi.     Действительно, пусть xi - значение, принимаемое дискретной случайной величиной, и . Полагая в формуле (19) , получим

(20)

   В пределе при  вместо вероятности попадания случайной величины на интервал  получим вероятность того, что величина  примет данное значение xi:

   C другой стороны, получаем , т.е. предел функции F(x) справа, так как . Следовательно, в пределе формула (20) примет вид

(21)

   т.е. значение p(xi) равно скачку функции ** xi. Это свойство наглядно иллюстрируется на рис. 4 и рис. 5. 

   * Здесь и в дальнейшем введены обозначения: .     ** Можно показать, что F(xi)=F(xi-0), т.е. что функция F(x) непрерывна слева в точке xi.

   3. Непрерывные случайные величины.     Кроме дискретных случайных величин, возможные значения которых образуют конечную или бесконечную последовательность чисел, не заполняющих сплошь никакого интервала, часто встречаются случайные величины, возможные значения которых образуют некоторый интервал. Примером такой случайной величины может служить отклонение от номинала некоторого размера детали при правильно налаженном технологическом процессе. Такого рода, случайные величины не могут быть заданы с помощью закона распределения вероятностей р(х). Однако их можно задать с помощью функции распределения вероятностей F(х). Эта функция определяется точно так же, как и в случае дискретной случайной величины:   

   Таким образом, и здесь функция F(х) определена на всей числовой оси, и ее значение в точке х равно вероятности того, что случайная величина примет значение, меньшее чем х.     Формула (19) и свойства 1° и 2° справедливы для функции распределения любой случайной величины. Доказательство проводится аналогично случаю дискретной величины.     Случайная величина  называется непрерывной, если для нее существует неотрицательная кусочно-непрерывная функция* , удовлетворяющая для любых значений x равенству

(22)

   Функция  называется плотностью распределения вероятностей, или кратко, плотностью распределения. Если x1<x2, то на основании формул (20) и (22) имеем

(23)

   Исходя из геометрического смысла интеграла как площади, можно сказать, что вероятность выполнения неравенств  равна площади криволинейной трапеции с основанием [x1,x2], ограниченной сверху кривой  (рис. 6).

   Так как , а на основании формулы (22)   

   , то

(24)

   Пользуясь формулой (22), найдем  как производную интеграла по переменной верхней границе, считая плотность распределения  непрерывной**:

(25)

   Заметим, что для непрерывной случайной величины функция распределения F(х) непрерывна в любой точке х, где функция непрерывна. Это следует из того, что F(х) в этих точках дифференцируема.     На основании формулы (23), полагая x1=x, имеем   

   В силу непрерывности функции F(х) получим, что   

   Следовательно   

   Таким образом, вероятность того, что непрерывная случайная величина может принять любое отдельное значение х, равна нулю.     Отсюда следует, что события, заключающиеся в выполнении каждого из неравенств   

,,

   Имеют одинаковую вероятность, т.е.   

   В самом деле, например,   

   так как      Замечание. Как мы знаем, если событие невозможно, то вероятность его наступления равна нулю. При классическом определении вероятности, когда число исходов испытания конечно, имеет место и обратное предложение: если вероятность события равна нулю, то событие невозможно, так как в этом случае ему не благоприятствует ни один из исходов испытания. В случае непрерывной случайной величины число возможных ее значений бесконечно. Вероятность того, что эта величина примет какое-либо конкретное значение x1 как мы видели, равна нулю. Однако отсюда не следует, что это событие невозможно, так как в результате испытания случайная величина может, в частности, принять значение x1. Поэтому в случае непрерывной случайной величины имеет смысл говорить о вероятности попадания случайной величины в интервал, а не о вероятности того, что она примет какое-то конкретное значение.     Так, например, при изготовлении валика нас не интересует вероятность того, что его диаметр будет равен номиналу. Для нас важна вероятность того, что диаметр валика не выходит из поля допуска. 

 Пример. Плотность распределения непрерывной случайной величины задана следующим образом:   

   График функции  представлен па рис. 7. Определить вероятность того, что случайная величина  примет значение, удовлетворяющее неравенствам .Найти функцию распределения заданной случайной величины.   

   Решение:     Используя формулу (23), имеем   

   По формуле (22) находим функцию распределения F(x) для заданной случайной величины.     Если , то

   Если , то

   Если x>4, то

   Итак,

   График функции F(x) изображен на рис. 8.   

Следующие два пункта посвящены часто встречающимся на практике распределениям непрерывных случайных величин — равномерному и нормальному распределениям. 

   * Функция называется кусочно-непрерывной на всей числовой оси, если она на любом сегменте или непрерывна, или имеет конечное число точек разрыва I рода.     ** Правило дифференцирования интеграла с переменной верхней границей, выведенное в случае конечной нижней границы, остается справедливым и для интегралов с бесконечной нижней границей. В самом деле,   

   Так как интеграл

   есть величина постоянная.

4. Равномерное распределение.     Пусть сегмент [a,b] оси Ox есть шкала некоторого прибора. Допустим, что вероятность попадания указателя в некоторый отрезок шкалы пропорциональна длине этого отрезка и не зависит от места отрезка на шкале. Отметка указателя прибора есть случайная величина  могущая принять любое значение из сегмента [a,b]. Поэтому . Если, далее, x1 и x2 (x1<x2) - две любые отметки на шкале, то согласно условию имеем

   где k - коэффициент пропорциональности, не зависящий от x1 и x2, а разность x2-x1, - длина сегмента [x1,x2]. Так как при x1=a и x2=bимеем , то k(b-a)=1, откуда k=1/(b-a). Таким образом

(26)

   Теперь легко найти функцию F(x) распределения вероятностей случайной величины . Если , то  так как  не принимает значений, меньших a. Пусть теперь . По аксиоме сложения вероятностей . Согласно формуле (26), в которой принимаем x1=ax2=х имеем

   Так как , то при  получаем

   Наконец, если x>b, то F(x)=1, так как значения  лежит на сегменте [a,b] и, следовательно, не превосходят b. Итак, приходим к следующей функции распределения:

   График функции F(x) представлен на рис. 9.     Плотность распределения вероятностей найдем по формуле (25). Если x<a или x>b, то . Если a<x<b, то

   Таким образом,

(27)

   График функции  изображен на рис. 10. Заметим, что в точках a и b функция  терпит разрыв.  

   Величина, плотность распределения которой задана формулой (27), называется равномерно распределенной случайной величиной. 

   5. Нормальное распределение.     Говорят, что случайная величина  нормально распределена или подчиняется закону распределения Гаусса, если ее плотность распределения  имеет вид

(28)

   где a - любое действительное число, а >0. Смысл параметров a и  будет установлен в дальнейшем (см. §4, п. 2). Исходя из связи между плотностью распределения  и функцией распределения F(x) [см. формулу (22)], имеем

   График функции  симметричен относительно прямой x=a. Несложные исследования показывают, что функция  достигает максимума при x=a, а ее график имеет точки перегиба при  и . При  график функции асимптотически приближается к оси Ox. Можно показать, что при увеличении  кривая плотности распределения становится более пологой. Наоборот, при уменьшении  график плотности распределения сжимается к оси симметрии. При a=0 осью симметрии является ось Oy. На рис. 11 изображены два графика функции y=. График I соответствует значениям a=0=1, а график II - значениям a=0=1/2.   

   Покажем, что функция  удовлетворяе условию (24), т.е. при любых a и  выполняется соотношение

   В самом деле, сделаем в этом интеграле замену переменной, полагая . Тогда

   В силу четности подинтегральной функции имеем

   Следовательно,

   Но,

   В результате получим

(29)

   Найдем вероятность . По формуле (23) имеем

   Сделаем в этом интеграле замену переменной, снова полагая . Тогда  и

(30)

   Как мы знаем, интеграл   не берется в элементарных функциях. Поэтому для вычисления определенного интеграла (30) вводится функция

(31)

   называемая интегралом вероятностей. Для этой функции составлены таблицы ее значений для различных значений аргумента (см. табл. II Приложения). Используя формулу (31) получим

   Итак,

(32)

   Легко показать, что функция Ф(х) (интеграл вероятностей) обладает следующими свойствами.     1°. Ф(0)=0     2°. ; при  величина  практически равна 1/2 (см. табл. II).     3°. Ф(-x)=-Ф(х), т.е. интеграл вероятностей является нечетной функцией.     График функции Ф(х) изображен на рис. 12.  

   Таким образом, если случайная величина  нормально распределена с параметрами a и , то вероятность того, что случайная величина удовлетворяет неравенствам , определяется соотношением (32).     Пусть >0. Найдем вероятность того, что нормально распределенная случайная величина  отклонится от параметра a по абсолютной величине не более, чем на , т.е. .     Так как неравенство  равносильно неравенствам , то полагая в соотношении (32)  получим

   Вследствие того, что интеграл вероятностей - нечетная функция, имеем

(33)

   Пример 1. Пусть случайная величина  подчиняется нормальному закону распределения вероятностей с параметрами a=0=2.     Определить:        1) ;        2) ;     Решение:        1) Используя формулу (32), имеем

   Из табл. II находим, что Ф(1)=0,34134Ф(1,5)=0,43319. Следовательно   

      2) Так как a=0, то . По формуле (33) находим   

 Пример 2. В каких пределах должна изменяться случайная величина, подчиняющаяся нормальному закону распределения, чтобы      Решение: По формуле (33) имеем

   Следовательно, . Из табл. II находим, что этому значению  соответствует , откуда  

 Из последнего примера следует, что если случайная величина подчиняется нормальному закону распределения, то можно утверждать с вероятностью, равной 0,9973, что случайная величина находится в интервале . Так как данная вероятность близка к единице, то можно считать, что значения нормально распределенной случайной величины практически не выходят за границы интервала . Этот факт называют правилом трех сигм

   6. Двумерные случайные величины.     Часто приходится решать задачи, в которых рассматриваются события, описываемые не одной, а несколькими — в частности, двумя случайными величинами. Так если станок-автомат штампует цилиндрические валики, то диаметр валика  и его высота , образуют систему двух случайных величин      Двумерной случайной величиной называют систему из двух случайных величин , для которой определена вероятность  совместного выполнения неравенств  и , где x и y - любые действительные числа.     Функция двух переменных

(34)

   определенная для любых x и y, называется функцией распределения системы двух случайных величин      Будем рассматривать  и  как декартовы координаты точки на плоскости. Точка  может занимать то или иное положение на плоскости . Тогда функция распределения даст вероятность того, что случайная точка  попадает в область , изображенную на рис. 13.   

   Двумерная случайная величина  называется дискретной, если  и  - дискретные величины.     Пусть возможные значения  и  образуют, например, конечные последовательности x1, x2, ..., xn и y1, y2, ..., ys. Возможные значения двумерной случайной величины  имеют вид (xi, yj), где i=1, 2, ..., nj=1, 2, ..., s. Обозначим через pij вероятность того, что    

   Функция распределения F(х, у) имеет вид   

   где двойная сумма распространена на те i и j, для которых xi<x и yj<y.     Двумерную случайную величину  так же, как и одномерную, можно задавать таблицей. Первая строка таблицы содержит возможные значения случайной величины , а первый столбец — возможные значения . В остальных клетках таблицы указаны соответствующие вероятности, причем их сумма всегда равна единице. В качестве примера рассмотрим двумерную случайную величину, заданную следующей таблицей:   

-1

0

1

0,1

p11=0,05

p12=0,20

p13=0,30

0,2

p21=0,10

p22=0,20

p23=0,15

   Сумма всех вероятностей   

   Две дискретные случайные величины  и  называются независимыми, если для всех пар ij выполняется соотношение   

   Пример 1. Две игральные кости бросают по одному разу. Обозначим через  число очков, выпавшее на первой кости, а через  — на второй; тогда  — Двумерная дискретная величина. Покажем, что величины  и  независимы. (Решение)     Двумерная величина  называется непрерывной, если существует такая непрерывная неотрицательная функция , двух переменных, что вероятность того, что точка  содержится в некоторой области  плоскости , равна двойному интегралу от функции  по области :   

(35)

   Функция  называется плотностью распределения вероятностей системы двух величин  и . Отсюда, в частности, следует, что если область  имеет вид, изображенный на рис. 13, то функцию распределения системы случайных величин можно записать следующим образом:   

(36)

   Непрерывные случайные величины  и  называются независимыми, если , где  и  - соответственно плотности распределения вероятностей случайных величин  и . В этом случае   

   где F1(x) и F2(y) — соответственно функции распределения величин  и  [см. формулу (22)].     Зная функцию распределения F(х,у) двумерной случайной величины , легко найти как функцию распределения, так и плотность распределения каждой из случайных величин  и , в отдельности.     Действительно, пусть F1(x) - функция распределения случайной величины . Тогда . Так как в этом случае  может принимать любое значение, то ясно, что   

   Следовательно, по формуле (36) имеем   

   Дифференцируя последнее равенство по x, согласно правилу дифференцирования интеграла по переменной верхней границе получим

(37)

   Аналогичным образом получаем   

   и, следовательно,

(38)

   Таким образом, чтобы получить плотность распределения одной из составляющих двумерной случайной величины, надо проинтегрировать в границах от  до  плотность распределения системы  по переменной, соответствующей другой случайной величине.     Пример 2. Двумерная случайная величина  имеет плотность распределения   

Найти:     1) вероятность р попадания случайной точки  в квадрат изображенный на рис. 14;     2) функцию распределения F(х,у);     3) плотности распределения каждой величины  и  в отдельности. (Решение)   

   По определению двумерная случайная величина  распределена нормально, если плотность распределения системы величин  и имеет вид   

   где , а R - некоторая постоянная (см. § 9, п. 2). Можно показать [используя формулы (37) и (38)], что каждая из величин  и  распределена нормально:   

   На доказательстве этого факта мы не будем останавливаться. В частности, если  и  независимы, то . Отсюда следует, что R=0, и, cледовательно,   

   Нетрудно убедиться в том, что справедливо и обратное утверждение: если R=0, то  и  — независимые случайные величины. 

§ 4. ЧИСЛОВЫЕ ХАРАКТЕРИСТИКИ СЛУЧАЙНЫХ ВЕЛИЧИН.     В теории вероятности и во многих ее приложениях большое значение имеют различные числовые характеристики случайных величин. Основными из них являются математическое ожидание и дисперсия.     1. Математическое ожидание случайной величины и его свойства.     Рассмотрим сначала следующий пример. Пусть на завод поступила партия, состоящая из N подшипников. При этом:     m1 - число подшипников с внешним диаметром х1,     m2 - число подшипников с внешним диаметром х2,     . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .     mn - число подшипников с внешним диаметром хn,     Здесь m1+m2+...+mn=N. Найдем среднее арифметическое значение xср внешнего диаметра подшипника. Очевидно,

   Внешний диаметр вынутого наудачу подшипника можно рассматривать как случайную величину , принимающую значения х1х2, ...,хn, c соответствующими вероятностями p1=m1/Np2=m2/N, ..., pn=mn/N, так как вероятность pi появления подшипника с внешним диаметром xi равна mi /N. Таким образом, среднее арифметическое значение xср внешнего диаметра подшипника можно определить с помощью соотношения

   Пусть  - дискретная случайная величина с заданным законом распределения вероятностей    

Значения 

х1

х2

. . .

хn

Вероятности 

p1

p2

. . .

pn

   Математическим ожиданием  дискретной случайной величины  называется сумма парных произведений всех возможных значений случайной величины на соответствующие им вероятности, т.е. *

(39)

   Возвращаясь к разобранному выше примеру, мы видим, что средний диаметр подшипника равен математическому ожиданию случайной величины  - диаметру подшипника.     Математическим ожиданием  непрерывной случайной величины  с плотностью распределения  называется число, определяемое равенством

(40)

   При этом предпологается, что несобственный интеграл, стоящий в правой части равенства (40) существует.     Рассмотрим свойства математического ожидания. При этом ограничимся доказательством только первых двух свойств, которое проведем для дискретных случайных величин.     1°. Математическое ожидание постоянной С равно этой постоянной.     Доказательство. Постоянную C можно рассматривать как случайную величину , которая может принимать только одно значение C c вероятностью равной единице. Поэтому      2°. Постоянный множитель можно выносить за знак математического ожидания, т.е.

   Доказательство. Используя соотношение (39), имеем

   3°. Математическое ожидание суммы нескольких случайных величин равно сумме математических ожиданий этих величин:

(41)

   4°. Математическое ожидание произведения двух независимых случайных величин равно произведению математических ожиданий этих величин **:

(42)

   * в случае, если множество возможных значений дискретной случайной величины образует бесконечную последовательность x1, x2, ...,xn, ..., то математическое ожидание этой случайной величины определяется как сумма ряда

причем требуется, чтобы этот ряд абсолютно сходился.     ** Под суммой (произведением) двух случайных величин  и  понимают случайную величину

, возможные значения которой состоят из сумм (произведений) каждого возможного значения величины  и каждого возможного значения величины .

   2. Дисперсия и ее свойства. Среднее квадратическое отклонение.     Во многих практически важных случаях существенным является вопрос о том, насколько велики отклонения  случайной величины от ее математического ожидания.     Предварительно рассмотрим пример. Пусть две случайные величины  и  заданы следующими рядами распределения  

Значения 

-0,2

-0,1

0,1

0,2

Вероятности p(x)

0,25

0,25

0,25

0,25

 

Значения 

-50

-40

40

50

Вероятности p(x)

0,25

0,25

0,25

0,25

   Легко убедится в том, что математические ожидания этих величин одинаковы и равны нулю:  

   Однако разброс значений этих величин относительно их математического ожидания неодинаков. В первом случае значения, принимаемые случайной величиной , близки к ее математическому ожиданию, а во втором случае далеки от него. Для оценки разброса (рассеяния) значений случайной величины около ее математического ожидания вводится новая числовая характеристика - дисперсия.     Дисперсией  случайной величины  называется математическое ожидание квадрата отклонения случайной величины от ее математичекого ожидания *:

(43)

   Пусть  - дискретная случайная величина, принимающая значения x1x2, ..., xn соответственно с вероятностями p1p2, ..., pn. Очевидно, случайная величина  принимает значения

с теми же вероятностями p1p2, ..., pn. Следовательно, согласно определению математического ожидания дискретной случайной величины, имеем

(44)

   Если же  - случайная величина с плотностью распределения , то по определению

(45)

   Принимая во внимание определение дисперсии и свойства математического ожидания, имеем

   Так как  и  - постоянные, то используя свойства математического ожидания, получим

   Следовательно,

   Откуда окончательно находим

(46)

   Рассмотрим теперь свойства дисперсии.     1°. Дисперсия постоянной равна нулю.

Доказательство. Пусть . По формуле (46) имеем

   так как математическое ожидание постоянной есть эта постоянная:

   2°. Постоянный множитель можно выносить за знак дисперсии, возводя его в квадрат:

(47)

   Доказательство. На основании соотношения (46), можно записать

   Так как

   и

   то

   3°. Если  и  - независимые случайные величины , то дисперсия суммы этих величин равна сумме их дисперсий:

(48)

 Доказательство. По формуле (46) имеем

   Но

   Так как  и  - независимые случайные величины, то

   Следовательно

   Далее,

   поэтому

   Таким образом

   Следовательно

   Замечание. Свойство 3° распространяется на любое конечное число попарно независимых случайных величин:

   Средним квадратическим отклонением  случайной величины  называется корень квадратный из ее дисперсии:

(49)

   Среднее квадратическое отклонение  имеет ту же размерность, что и случайная величина 

 Пример 1. Cлучайная величина  - число очков, выпадающих при однократном бросании игральной кости (см. § 3, п.1, пример 1). Определить: математическое ожидание, дисперсию и средне квадратическое отклонение     Решение:      Используя формулы (39), (44) и (49) соответственно получим

 Пример 2. Cлучайная величина  - число наступления события A при одном испытании, причем P(A)=p (см. § 3, п.1, пример 2). Найти математическое ожидание и дисперсию.     Решение:     Величина  принимает два значения 0 и 1 соответственно с вероятностями q=1-p и p. Поэтому по формулам (39) и (44) находим   

  Пример 3. Cлучайная величина m - число наступления события A в n независимых опытах, причем вероятность наступления события A в каждом опыте равна p. Найти M(m), D(m) и      Решение:     Пусть  - случайная величина, принимающая значения 1 или 0 в зависимости от того, происходит или не происходит событие A в i-м опыте. Тогда . Ясно, что  попарно независимы. Из результата примера 2 следует, что  для любого i. На основании свойства 3° для математического ожидания и дисперсии имеем   

   Пример 4. Пусть  - случайная величина распределенная по закону Пуассона

[См. формулу (17)]. Найти:      Решение:     Используя соотношение (39), получим   

   Так как   

 Пример 5. Пусть  - случайная величина, имеющая равномерное распределение с плотностью

[См. формулу (27)]. Найти математическое ожидание, дисперсию и средне квадратическое отклонение cлучайной величины.     Решение:      По формулам (40), (45) и (49) находим   

  Пусть  - нормально распределенная случайная величина, с параметрами a и  (см. § 3, п.5). Найдем  и     Так как

   ,то по формуле (40) находим

   Проведем в интеграле замену переменной, полагая

   тогда

   Следовательно,

   Но

   [См. формулу (29)]. Далее, так как функция  нечетная, то по свойству нечетных функций

   Следовательно,      Дисперсию находим по формуле (45)

   (вычисление интеграла не приводим).     Итак,

   Таким образом, параметры a и  для нормально распределенной случайной величины имеют простой вероятностный смысл: a есть математическое ожидание,  - среднее квадратическое отклонение. 

   * Казалось бы естественным рассматривать не квадрат отклонения, а просто отклонение  случайной величины от ее математического ожидания. Однако математическое ожидание этого отклонения равно нулю, так как

Здесь мы воспользовались тем, что  постоянно, а математическое ожидание постоянной есть эта постоянная. Можно было бы принять за меру рассеяния математическое ожидание модуля отклонения случайной величины от ее математического ожидания: . Однако, как правило, действия связанные с абсолютными величинами, приводят к громоздким вычислениям.

  3. Линейные функции случайных величин.     Пусть  - нормально распределенная случайная величина с параметрами  и . Тогда, если A и B - постоянные, то случайная величина  , линейно зависящая от также нормально распределена, причем *

   Докажем это утверждение. Пусть для простоты B>0. Отценим вероятность неравенств . Ясно, что эти неравенства равносильны неравенствам , т.е.

   Поэтому

   Так как величина  распределена нормально, то

   Проведем в этом интеграле замену переменной, полагая x=(y-A)/B  Тогда dx=dy/B и, следовательно,

   Итак,

   Это равенство показывает, что случайная величина  имеет нормальное распределение, причем  и      Имеет место и более общее утверждение. Пусть  - постоянные, а  - нормально распределенные попарно независимые случайные величины, причем

   Тогда случайная величина

   также имеет нормальное распределение, причем  

   В частности, если

   при любом i, то случайная величина

   распределена нормально, причем

   * Последнее утверждение можно получить просто из свойств математического ожидания и дисперсии. Так, например,

§ 5. ЗАКОНЫ БОЛЬШИХ ЧИСЕЛ.     1. Леммы Чебышева.     В этом пункте докажем следующие две леммы, принадлежащие Чебышеву*     Лемма 1. Пусть  — случайная величина, принимающая только неотрицательные значения; тогда   

   Доказательство:     Для простоты докажем это утверждение для дискретной случайной величины , принимающей значения x1x2, ..., xn, при условии . По аксиоме сложения вероятностей имеем   

   где суммирование распространено на все значения xi, большие или равные единице. Но для sub>, очевидно,   

   Поэтому

(50)

   где xi<1. Эта сумма неотрицательна, так как все  по условию, а вероятности . Поэтому

(51)

   Последняя сумма распространена на все значения xi, принимаемые учайной ветчиной . Но эта сумма по определению равна математическому ожиданию:   

   Сопоставляя соотношения (50) и (51), имеем   

   Тем самым лемма доказана. 

   Лемма 2. Пусть  — случайная величина, а  - положительное число. Тогда вероятность того, что модуль отклонения случайной величины.  от ее математического ожидания окажется меньше, чем , больше или равна разности

(52)

   Неравенство (52) называется неравенством Чебышева.

   Доказательство:     Рассмотрим сначала неравенство . Так как оно равносильно неравенству   

   то

   Случайная величина

   неотрицательна и, значит, удовлетворяет условиям первой леммы Чебышева. Следовательно,   

   так как      Поэтому

(53)

   Так как событие, выражаемое неравенством , противоположно событию, выражаемому неравенством , то   

   Принимая во внимание соотношение (53), окончательно получим   

   * П.Л.Чебышев (1821-1894) - выдающийся русский математик.

2. Закон больших чисел Чебышева.     Имеет место следующее утверждение. Пусть - последовательность попарно независимых случайных величин, имеющих ограниченные в совокупности дисперсии, т. е. для любого i. Тогда, каково бы нибыло , справедливо соотношение

(54)

Доказательство:     Обозначим через  величину , т.е. среднюю арифметическую n случайных величин. Случайная величина  имеет математическое ожидание   

   и дисперсию   

   (здесь мы воспользовались свойствами математического ожидания и дисперсии). Применяя к случайной величине  вторую лемму Чебышева, найдем, что   

   т.е.   

   так как  при любом i, и следовательно,   

   Учитывая, что вероятность любого события не превосходит единицы, получим   

   Переходя к пределу при , имеем   

  Смысл закона больших чисел Чебышева состоит в следующем. В то время как отдельная случайная величина может принимать значения, очень далекие от своего математического ожидания, средняя арифметическая большого числа случайных величин с вероятностью, близкой к единице, принимает значение, мало отличающееся от среднего арифметического их математических ожиданий.     Частный случай закона больших чисел Чебышева. Пусть - последовательность попарно независимых случайных величин, имеющих ограниченные в совокупности дисперсии, т. е.  и одинаковые математические ожидания Тогда, каково бы нибыло , справедливо соотношение   

   Это непосредственно следует из формулы (54), так как   

   Замечание. Говорят, что случайная величина  сходится по вероятности к числу А, если при сколь угодно малом  вероятность неравенства  с увеличением n неограниченно приближается к единице. Сходимость по вероятности не означает, что . Действительно, в последнем случае неравенство  выполняется для всех достаточно больших значений n. В случае же сходимости по вероятности это неравенство для отдельных сколь угодно больших значений n может не выполняться. Однако невыполнение неравенства  для больших значений n есть событие очень редкое (маловероятное). Принимая это во внимание, частный случай закона больших чисел Чебышева можно сформулировать так.     Средняя арифметическая  попарно независимых случайных величин , имеющих ограниченные в совокупности дисперсии и одинаковые математические ожидания , сходится по вероятности к а.     Поясним смысл частного случая закона больших чисел Чебышева. Пусть требуется найти истинное значение а некоторой физической величины (например, размер некоторой детали). Для этого будем производить ряд независимых друг от друга измерений. Всякое измерение сопровождается некоторой погрешностью (см. подробнее § 6, п. 1). Поэтому каждый возможный результат измерения есть случайная величина  (индекс i — номер измерения). Предположим, что в каждом измерении нет систематической ошибки, т. е. отклонения от истинного значения а измеряемой величины в ту и другую стороны равновероятны. В этом случае математические ожидания всех случайных величин  одинаковы и равны измеряемой величине а, т. е.      Предположим, наконец, что измерения производятся с некоторой гарантированной точностью. Это значит, что для всех измерений . Таким образом, мы находимся в условиях закона больших чисел Чебышева, а потому, если число измерений достаточно велико, то с практической достоверностью можно утверждать, что каково бы ни было , средняя арифметическая результатов измерений отличается от истинного значения а меньше, чем на  

3. Закон больших чисел Бернулли.     Пусть производится последовательность независимых испытаний, в результате каждого из которых может наступить или не наступить событие А, причем вероятность наступления этого события одна и та же при каждом испытании и равна р. Если событие А фактически произошло m раз в n испытаниях, то отношение m/n называют, как мы знаем, частотой появления события А. Частота есть случайная величина, причем вероятность того, что частота принимает значение m/n, выражается по формуле Бернулли (13):   

   Закон больших чисел в форме Бернулли состоит в следующем: с вероятностью, сколь угодно близкой к единице, можно утверждать, что при достаточно большом числе опытов частота появления события А как угодно мало отличается от его вероятности, т. е.

(55)

   иными словами, при неограниченном увеличении числа n опытов частота m/n события А сходится по вероятности к Р(А).

Доказательство:     Рассмотрим случайную величину . Так как M(m)=np и D(m)=npq (см. § 4, п. 2, пример 3), то   

   Применим к случайной величине  вторую лемму Чебышева:   

   Переходя к пределу при , очевидно, имеем   

  Мы говорили (см. § 1, п. 1), что при большом числе испытаний частота Р*(А)=m/n события А обладает свойством устойчивости. Это обстоятельство находит свое объяснение в законе больших чисел Бернулли. 

§ 6. ТЕОРЕМЫ ЛЯПУНОВА И ЛАПЛАСА.     1. Теорема Ляпунова.     Часто приходится иметь дело с такими случайными величинами, которые являются суммами большого числа независимых случайных величин. При некоторых весьма общих условиях оказывается, что эта сумма имеет распределение, близкое к нормальному, хотя каждое из слагаемых может не подчиняться нормальному закону распределения вероятностей. Эти условия были найдены Ляпуновым * и составляют содержание теоремы, названной его именем.     Приведем без доказательства только следствие из теоремы Ляпунова.     Пусть  последовательность попарно независимых. случайных величин с математическими ожиданиями  и дисперсиями  , причем эти величины обладают следующими двумя свойствами:     1) Cуществует такое число L, что для любого i имеет место неравенство  , т, е. все значения случайных величин, как говорят, равномерно ограничены, относительно математических ожиданий;     2) Cумма  неограниченно растет при .     Тогда при достаточно большом n сумма  имеет распределение, близкое к нормальному.     Пусть a и  - математическое ожидание и дисперсия случайной величины . Тогда

   Так как по следствию из теоремы Ляпунова случайная величина  для больших значений n имеет распределение, близкое к нормальному, то согласно формуле (32) имеет место соотношение

(56)

   где Ф(х) - интеграл вероятностей. 

   А.М.Ляпунов (1857-1918) - выдающийся русский математик.

  2. Основной закон ошибок.     Когда мы производим некоторое измерение, то на его результат влияет большое количество факторов, которые порождают ошибки измерений. Ошибки измерений в основном можно подразделить на три группы: 1) грубые ошибки; 2) систематические ошибки; 3) случайные ошибки.     Грубые ошибки возникают от невнимательности при чтении показателей прибора, неправильной записи показаний, неправильном использовании прибора. Эти ошибки могут быть исключены соблюдением правил измерения.     Систематические ошибки искажают обычно результат измерения в определенную сторону. Они происходят, например, от несовершенства приборов, от личных качеств наблюдателя и могут быть устранены соответствующими поправками.     Случайные ошибки вызываются большим числом отдельных причин, не поддающихся точному учету и действующих в каждом отдельном случае различным образом. Эти ошибки возникают от незаметных механических причин, из-за изменения параметров измерительных приборов, зависящих от метеорологических условий, и т. д. Каждая из этих причин в отдельности порождает при измерении ничтожную ошибку . Складываясь, эти ничтожно малые ошибки порождают суммарную ошибку , которой уже нельзя пренебречь. Эта суммарная ошибка v есть случайная величина, являющаяся суммой огромного числа незначительных, независимых друг от друга случайных величин и имеет, согласно следствию из теоремы Ляпунова, нормальное распределение. Предполагая измерение свободным от грубых и систематических ошибок, можно считать, что возможный результат измерения есть случайная величина , математическое ожидание которой равно истинному значению а измеряемой величины:  (см. Теорему Ляпунова). Так как суммарная ошибка  подчиняется нормальному закону распределения, то возможный результат измерения  также подчиняется нормальному закону распределения (см. § 4, п. 3). В этом заключается основной закон ошибок. 

3. Интегральная теорема Лапласа. Имеет место следующее утверждение.     Теорема. Пусть производится n независимых опытов, в каждом из которых вероятность наступления события А одна и та же и равна . Пусть m - число появления события A в n опытах. Тогда для достаточно больших n случайная величина m имеет распределение, близкое к нормальному с параметрами a=M(m)=np, .     Доказательство. Пусть  - число наступления события A в i-м опыте. Тогда  (cм. § 4, п. 2, пример 2). Так как  может принимать только два значения 0 и 1, то для любого i имеем . Кроме того, величина  стремится к бесконечности при . Итак, последовательность случайных величин  удовлетворяет условиям следствия из теоремы Ляпунова. Поэтому сумма этих величин  достаточно больших n имеет распределение, близкое к нормальному, что и требовалось доказать.     Вычислим вероятность того, что случайная величина m, т. е. число наступлений события А в n опытах, удовлетворяет неравенствам , где x1 и x2 - данные числа. Так как a=M(m)=np (cм. § 4, п. 2, пример 2). То согласно формуле (32) получим

(57)

   где Ф(х) - интеграл вероятностей. 

   Пример. При установившемся технологическом режиме завод выпускает в среднем 70% продукции первого сорта. Определить вероятность того, что из 1000 изделий число первосортных заключено между 652 и 760.

   Решение. Здесь

   Используя формулу (57) и значения интеграла вероятностей из таблицы II приложения, получим

§ 7. ПРИЛОЖЕНИЕ ТЕОРИИ ВЕРОЯТНОСТИ К ОБРАБОТКЕ РЕЗУЛЬТАТОВ ИЗМЕРЕНИЙ.     Пусть для определения неизвестной физической постоянной а производится n независимых измерений, причем считается, что грубые и систематические ошибки отсутствуют (см. § 6, п. 2). Возможный результат каждого из n измерений есть случайная величина, которую мы обозначим через  (i — номер измерения). Так как каждое измерение не зависит от результатов других измерений, то мы имеем nслучайных независимых величин . Обозначим через x1, x2, ..., xn фактически полученные результаты n измерений величины а. Таким образом, xi есть одно из возможных значений .     На основании закона больших чисел Чебышева (см, § 5, п. 2) мы можем утверждать, что с практической достоверностью для достаточно большого числа n измерений средняя арифметическая результатов измерений отличается от истинного значения физической постоянной сколь угодно мало, т. е. с вероятностью, сколь угодно близкой к единице, имеет место приближенное равенство   

   Оценим точность этого приближенного равенства. Для этого прежде всего заметим, что в силу основного закона ошибок (см. § 6, п. 2) каждый возможный результат измерения  есть случайная величина, подчиняющаяся нормальному закону распределения вероятностей с одним и тем же математическим ожиданием, равным истинному значению а измеряемой величины:  (i=1, 2, ..., n). Далее будем предполагать, что все измерения проводятся с одинаковой степенью точности (равноточные измерения). Поэтому дисперсии всех случайных величин должны быть одинаковыми, т. е. .     Сначала рассмотрим случай оценки неизвестного значения а, предполагая известным значение . Так как возможный результат i-гo измерения есть случайная величина , подчиняющаяся нормальному закону распределения вероятностей с математическим ожиданием  и дисперсией , то случайная величина  также имеет нормальное распределение с тем же математическим ожиданием , и средним квадратическим отклонением  (см. § 4, п. 3). Поэтому плотность распределения вероятностей для средней арифметической  имеет вид   

   где параметры распределения равны а и      Следовательно, вероятность того, что при n измерениях мы получим такую совокупность значений , что при любом интервал  будет содержать а, на основании формулы (33) определяется соотношением

(58)

   Интервал  имеет случайные границы  и . Соотношение (58) справедливо для любого значения . Вероятность  не зависит от конкретных значений, которые принимают случайные величины  и при возрастании числа измерений n в силу свойства функции Ф(х) возрастает (см. § 3, п. 4). Соотношение (58) показывает, что каковы бы ни были значения x1, x2, ..., xn полученные при измерении, имеет место формула

(59)

   где . Величина  называется средней выборочной. Формулой (59) в большинстве случаев пользоваться нельзя, так как обычно значение  неизвестно. Поэтому рассмотрим случай, когда обе величины а и  неизвестны.     Пусть случайная величина s2 определена соотношением

(60)

   где . Можно показать, что величина s2 имеет математическое ожидание, равное , и дисперсию, равную , т.е.   

   (доказательство не приводим ввиду громоздкости вычислений). Применим к случайной величине s2 вторую лемму Чебышева (см. § 5, п. 1):   

   где . Подставляя значения M(s2) и D(s2), получим

(61)

   Соотношение (61) показывает, что если , то , т.е. s2 стремится по вероятности к .     Рассмотрим величину   

   Так как  есть одно из возможных значений s2, то при достаточно больших n с практической достоверностью можно утверждать, что имеет место приближенное равенство

(62)

   где . Величину  называют выборочной дисперсией.     На практике для оценки вероятности того, что истинное значение а измеряемой величины лежит в интервале , пользуются формулой (59), где вместо  подставляют ее приближенное значение , найденное по формуле (62).     Итак, для достаточно больших значений n имеем

(63)

   где

(64)

   Интервал  называется доверительным интервалом, а вероятность  — надежностью *. 

 Пример. Для определения процентного содержания хрома в стали были проделаны 34 измерения, результаты которых сведены в таблицу:

xi

1

4,505

0

0

2

4,524

0,019

0,000361

3

4,492

-0,013

0,000169

4

4,5

-0,005

0,000025

5

4,493

-0,012

0,000144

6

4,515

0,01

0,0001

7

4,504

-0,001

0,000001

8

4,508

0,003

0,000009

9

4,517

0,012

0,000144

10

4,513

0,008

0,000064

11

4,519

0,014

0,000196

12

4,511

0,006

0,000036

13

4,485

-0,02

0,0004

14

4,497

-0,008

0,000064

15

4,502

-0,003

0,000009

16

4,507

0,002

0,000004

17

4,501

-0,004

0,000016

18

4,501

-0,004

0,000016

xi

19

4,507

0,002

0,000004

20

4,502

-0,003

0,000009

21

4,497

-0,008

0,000064

22

4,485

-0,02

0,0004

23

4,511

0,006

0,000036

24

4,519

0,014

0,000196

25

4,513

0,008

0,000064

26

4,517

0,012

0,000144

27

4,508

0,003

0,000009

28

4,504

-0,001

0,000001

29

4,515

0,01

0,0001

30

4,493

-0,012

0,000144

31

4,5

-0,005

0,000025

32

4,492

-0,013

0,000169

33

4,424

0,019

0,000361

34

4,505

0

0

153,186

 

0,006968

   Найти доверительный интервал с надежностью =0,9973

   Решение:

   Здесь n=34. Используя табличные данные, находим

   При надежности =0,9973 по формуле (63) получим

   Cледовательно,

   Из табл. II Приложения найдем

   В данном случае доверительный интервал

Итак с надежностью =0,9973 процентное содержание хрома в стали находится в интервале ] 4,498; 4,513 [.

Расчет по формуле (63) дает удовлетворительные по точности результаты при .

§ 8. Применение теории вероятности к статистике.

   Математическая статистика - это раздел математики, в котором изучаются методы обработки и анализа экспериментальных данных, полученных в результате наблюдений над массовыми случайными явлениями. Таким образом, обработка результатов измерения (cм. § 7) является одной из задач математической статистики. В этом параграфе мы рассмотрим еще две задачи математической статистики.

1. Определение неизвестной функции распределения.

   Пусть мы имеем дело с непрерывной случайной величиной , значения которой получены из наблюдений. Разобьем диапазон наблюдаемых значений  на интервалы ] X0, X1 [, ] X1, X2 [, ..., ] Xk-1, Xk [ одинаковой длины . Пусть mi - число наблюдаемых значений , попавших в i-й интервал. Разделив mi на общее число наблюдений n, получим частоту , соответствующую i-му интервалу:, причем . Составим следующую таблицу:

Номер интервала

Интервал

mi

1

] X0, X1 [

m1

2

] X1, X2 [

m2

...

...

...

...

k

] Xk-1, Xk [

mk

которая называется статистическим рядом. Эмпирической (или статистическойфункцией распределения случайной величины называется частота события, заключающегося в том, что величина  в результате опыта примет значение, меньшее x:

   На практике достаточно найти значения статистической функции распределения F*(x) в точках X0, X1, ..., Xk, которые являются границами интервалов статистического ряда:

(65)

   Cледует заметить, что F*(x)=0 при x<X0 и F*(x)=1 при x>Xk. Построив точки Mi [Xi ; F*(Xi)] и соединив их плавной кривой, получим приближенный график эмпирической функции распределения (рис. 15). Используя закон больших чисел Бернулли, можно доказать, что при достаточно большом числе n испытаний с вероятностью, близкой к единице, эмпирическая функция распределения F*(x) отличается сколь угодно мало от неизвестной нам функции распределения F(x) cлучайной величины 

   Часто вместо построения графика эмпирической функции распределения поступают следующим образом. На оси абсцисс откладывают интервалы ] X0, X1 [, ] X1, X2 [, ..., ] Xk-1, Xk [. На каждом интервале строят прямоугольник, площадь которого равна частоте , соответствующей данному интервалу. Высота hi этого прямоугольника равна , где  - длинна каждого из интервалов. Ясно, что сумма площадей всех построенных прямоугольников равна единице.     Рассмотрим функцию , которая в интервале ] Xi-1, Xi [ постоянна и равна hi. График этой функции называется гистограммой. Он представляет собой ступенчатую линию (рис. 16). С помощью закона больших чисел Бернулли можно доказать, что при малых  и больших n с практической достоверностью  как угодно мало отличается от плотности распределения  непрерывной случайной величины .

Пример. Измерен диаметр у 270 валов хвостовика. Значения диаметра (в см) оказались в диапазоне 66-90 см. Разбив этот диапазон на интервалы диной 2 см (=2), получим статистический ряд (см. таблицу

Номера интервалов

Интервалы

mi

(1)

(2)

(3)

(4)

(5)

1

]66,68[

4

0,015

0,008

2

]68,70[

12

0,045

0,022

3

]70,72[

24

0,090

0,045

4

]72,74[

41

0,152

0,076

5

]74,76[

50

0,185

0,092

6

]76,78[

53

0,196

0,098

7

]78,80[

39

0,144

0,072

8

]80,82[

26

0,096

0,048

9

]82,84[

13

0,048

0,024

10

]84,86[

5

0,019

0,009

11

]86,88[

2

0,007

0,004

12

]88,90[

1

0,003

0,002

 

270

1,000

 

   Построим гистограмму и эмпирическую функцию распределения. Подсчитанные частоты приведены в столбце (4), а значения высотhi прямоугольников гистограммы - в столбце (5). Гистограмма изображена на рис. 17.

   Значения эмпирической функции распределения в граничных точках интервалов вычислены по формуле (65) и приведены в следующей таблице:

x

66

68

70

72

74

76

78

80

82

84

86

88

90

F*(x)

0

0,015

0,060

0,150

0,302

0,487

0,683

0,827

0,923

0,971

0,990

0,997

1,000

Так, например,

График функции F*(x) изображен на рис.18.

Соседние файлы в папке Пз 2