Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
Ответы ТВ.docx
Скачиваний:
4
Добавлен:
01.07.2025
Размер:
595.02 Кб
Скачать

1.10.3. Вероятность суммы двух совместных событий

Два события называются совместными, если появление одного из них не исключает появление другого в одном и том же испытании.

Суммой А+В двух совместных событий А и В называют событие С, состоящее в появлении события А, или события В, или обоих этих событий.

Например, если из орудия произведены два выстрела и А- попадание при первом выстреле, В - попадание при втором выстреле, то А+В - попадание при первом выстреле или при втором , или при обоих выстрелах.

Пример 1.46. А – {появление четырех очков при бросании игрального кубика}; В – {появление четного числа очков}. Событии А и В совместные.

Пусть события А и В совместные, причем вероятности этих событий известны. Для таких событий справедлива следующая теорема сложения.

Теорема. Вероятность появления хотя бы одного из двух совместных событий равна сумме вероятностей этих событий без вероятности их совместного появления:

Р(А+В) = Р(А) + Р(В) – Р(АВ) (1.21)

Доказательство. Поскольку события А и В совместны, то событие А+В (хотя бы одно) наступит, если наступит одно из следующих трех событий: или АВ. Эти события несовместны. По теореме сложения двух несовместных событий

(*)

Событие А произойдет, если наступит одно из двух несовместных событий: или АВ. По теореме сложения двух несовместных событий имеем

Отсюда (**)

Аналогично имеем

Отсюда (***)

Подставив (**) и (***) в (*), окончательно получим

Р(А+В) = + + Р(АВ)= P(А) + P(В) – P(АВ)

То есть, Р(А+В) = P(А) + P(В) – P(АВ) что и требовалось доказать

Пример 1.47. Вероятности попадания в цель при стрельбе первого и второго орудий , соответственно, равны: р1=0,7; р2 = 0,8. Найти вероятность попадания при одном залпе (из обоих орудий) хотя бы одним из орудий.

Решение. Вероятность попадания в цель хотя бы одним из орудий можно рассмотреть состоящим из событий: А – попадание первым орудием; В – попадание вторым орудием; АВ – попадание обоими орудиями. Согласно теореме

Р(А+В) = Р(А) + Р(В) – Р(АВ)

Так как эти события независимы, то

Получим Р(А+В) = Р(А) + Р(В) – Р(А) ∙Р(В)= 0,7+0,8-0,7∙0,8 = 0,94.

Пример 1.48. Из 20 студентов 5 человек сдали на двойку экзамен по истории, 4 по английскому языку, причем 3 студента получили двойки по обоим предметам. Каков процент студентов в группе, не имеющих двоек по этим предметам?

Решение. Решим задачу, используя противоположное событие - процент студентов, имеющих двойки по этим предметам. Вероятность события равна q= 5/20 + 4/20 – 3/20. искомая вероятность равна р = 1- q = 1 – (5/20 + 4/20 – 3/20) = 0,7 (70%).

10. Некоторые теоремы теории вероятностей: условная вероятность, вероятность произведения; независимость событий, теорема умножения для независимых событий.

Условная вероятность

Событие называется случайным (стохастическим), если при осуществлении совокупности условий S это событие может произойти или не произойти.

Если при вычислении вероятности события никаких других ограничений, кроме условий S не налагается, то такая вероятность называется безусловной. Если же налагаются и другие дополнительные условия, то вероятность события называется условной.

Например, требуется определить вероятность случайного события В при условии, что произошло случайное событие А, имеющее ненулевую вероятность. То, что событие А произошло, сужает пространство элементарных событий до множества А, соответствующего этому событию. Дальнейшие рассуждения проведем на примере классической схемы.

Пусть полная группа событий Ω состоит из n равновозможных элементарных событий (исходов) и событию А благоприятствует m(A), а событию АВ благоприятствует m(AB) исходов. Обозначим условную вероятность события В при условии, что А произошло, – Р(В| А). По определению

Если А произошло, то реализован один из m(А) исходов, и событие В может произойти , только если произойдет один из исходов, благоприятствующих АВ; таких исходов m(AB). Поэтому естественно положить условную вероятность события В при условии, что А произошло, равной отношению

Таким образом, условной вероятностью РА(В) или Р(В|А) события В, вычисленной при условии наступления с ненулевой вероятностью события А называется отношение вероятности пересечения событий А и В к вероятности события А

РА(В) = (1.22)

При этом полагают, что Р(В) ≠ 0.

Часто условную вероятность p(B|A) можно легко найти из условия задачи, в более сложных случаях приходится пользоваться определением (1.22).

Пример 1.49. В урне лежит N шаров, из них n белых. Из нее достают шар и, не кладя его обратно (выборка без возвращения), достают еще один. Чему равна вероятность того, что оба шара белые?

Решение. Обозначим события: А ={ первым вынули белый шар}, В ={ первым вынули черный шар}, С = {вторым вынули белый шар}. Тогда

Легко видеть, что вероятность того, что три вынутые подряд (без возвращения) шара белые: и т.д.

Пример 1.50. Из 30 экзаменационных билетов студент подготовил только 25. Если он отказывается отвечать по первому взятому билету (которого он не знает), то ему разрешается взять второй. Определить вероятность того, что второй билет окажется счастливым.

Решение. Пусть события: А={первый вытащенный билет оказался для студента «плохим»}, В={второй билет оказался «хорошим»}. Поскольку после наступления события А один из «плохих» уже извлечен, то остается всего 29 билетов, из которых 25 студент знает. Отсюда искомая вероятность, предполагая, что появление любого билета равновозможно и они обратно не возвращаются, равна p(B|A) = 25/29.

Вероятность произведения событий

Теорема. Вероятность совместного появления двух событий равна произведению вероятности одного из них на условную вероятность другого события, вычисленную при предположении, что первое событие уже наступило:

P(АВ)=Р(А)∙Р(В|А) (1.23)

Доказательство. По определению условной вероятности (формула (1.22)) имеем P(B|A) = P(AB)/P(A). Отсюда, предполагая, что р(А)≠0, р(В|А)≠0, можно получить P(АВ)=Р(А)∙Р(В|А), отсюда следует справедливость формулы (1.23) или рассматриваемой теоремы.

Примечание. Применив формулу (1.23) к событию ВА, получим P(BА)= P(В)∙Р(А|В). Поскольку событие ВА не отличается от события АВ, можем записать P(АВ)=P(В)∙Р(А|В), то есть,

Р(А)∙Р(В|А) = Р(B)∙Р(A|B) (1.24)

Формула (1.23) может быть обобщена на любое число событий

Следствие. Вероятность совместного появления нескольких событий равна произведению вероятности одного из них на условные вероятности всех остальных событий, причем вероятность каждого последующего события вычисляется при предположении, что все предыдущие события уже появились: P(A1А2А3…Аn)= Р(А1)∙Р(A21)∙Р(A31A2)∙Р(A41А2A3) …

…∙Р(An| А1 А2 A3 … Аn-1) (1.25)

где Р(An| А1А2A3…Аn-1) – вероятность события An, вычисленная при предположении, что события А1, А2, A3, …Аn-1 наступили. В частности, для трех событий формула (1.25) имеет вид

Р(АВС)=р(А)∙р(В|А)∙р(С|АВ) (1.25-а)

Пример 1.51. По условиям предыдущего примера 1.50 найти вероятность успешной сдачи экзамена, если для этого студент должен ответить на первый билет, или, не ответив на первый, обязательно ответит на второй.

Решение. Пусть события А = {первый билет «хороший»}, B= { второй билет «хороший» }. Тогда ={ первый билет «плохой»}. Экзамен будет сдан, если произойдет событие А, или одновременно и В. То есть искомое событие С={успешная сдача экзамена} выражается следующим образом: С = А + В. Отсюда

Здесь мы воспользовались несовместимостью А и , а следовательно, несовместимостью А и В, теоремами о вероятности суммы и произведения и классическим определением вероятности при подсчете р(А) и р( ).

Эту задачу можно решить и проще, если воспользоваться теоремой о вероятности противоположного события:

Пример 1.52. У сборщика имеется 3 конусных и 7 эллиптических валиков. Сборщик взял наугад один валик, затем – другой. Найти вероятность того, что первый из взятых валиков конусный, а второй – эллиптический.

Решение. Пусть событие А = {первый валик конусный}, событие В = {второй валик эллиптический}.

Вероятность события А (первый валик - конусный ) равна Р(А) = 3/10.

Условная вероятность события В (второй валик эллиптический при предположении, что первый конусный) равна Р(В|А) = 7/9.

По теореме произведения (формула 1.23) искомая вероятность

Р(АВ) = Р(А)∙Р(В|А) = (3/10)∙(7/9) = 7/30.

Заметим, что, сохранив обозначения, легко найдем: Р(В) = 7/10, Р(А|В)=3/9, отсюда Р(В) Р(А|В) = 7/30, что наглядно иллюстрирует справедливость формулы (1.24).

Независимые события. Теорема умножения

для независимых событий

Событие В называют независимым от события А, если появление события А не изменяет вероятности появления события В, то есть условная вероятность события В равна его безусловной вероятности, то есть Р(В|А)=Р(В).

Если событие В не зависит от события А, то и событие А не зависит от события В, то есть свойство независимости событий взаимно.

Для независимых событий теорема умножения (формула 1.23) имеет вид

Р(АВ) = Р(А) ∙Р(В) (1.26)

то есть, вероятность совместного появления двух независимых событий равна произведению вероятностей этих событий.

Для n независимых событий P(A1, A2, …, An) = (1.27)

Если P(Ai) = p = const, то P(A1, A2, …, An) = pn. (1.28)

На практике заключение о независимости событий делают по смыслу задачи.

Пример 1.53. Найти вероятность совместного поражения цели двумя орудиями, если вероятность поражения цели первым орудием равна 0,8, а вторым – 0,7..

Решение. Пусть событие А={поражение цели первым орудием}, событие В={поражение цели вторым}. Вероятности поражения цели каждым из двух орудий не зависят от того, поразило ли цель другое орудие, поэтому события А и В независимые. Поэтому по теореме умножения (формула 1.26) искомая вероятность равна

Р(АВ) = Р(А)∙Р(В) = 0,7∙0,8 = 0,56.

Пример 1.54. Рассмотрим пример 1.49 (раздел 1.10.4) с урной, содержащей N шаров, из которых n белых, но изменим опыт: вынув шар, мы кладем его обратно и только затем вынимаем следующий (выборка с возвращением). Какова вероятность того, что оба вынутых шара белые?

Решение. Пусть событие А={первым вынули белый шар}, событие В={первым вынули черный шар}, а С= {вторым вынули белый шар}. Тогда

то есть, согласно формуле (1.26) в данном случае события А и С независимы.

Таким образом, при выборке с возвращением результаты второго опыта не зависимы от результатов первого опыта, а при выборке без возвращения они были зависимы. Однако при больших N и n эти вероятности очень близки друг к другу. Этим пользуются, так как иногда производят выборку без возвращения (например, при контроле качестве, когда тестирование объекта приводит к его разрушению), а расчеты проводят по формулам для выборки с возвращением, которые проще.

На практике при расчете вероятностей часто пользуются правилом, согласно которому из физической независимости событий следует их независимость в теоретико-вероятностном смысле.

Пример 1.55. Вероятность того, что человек в возрасте 60 лет не умрет в ближайший год, равна 0,91. Страховая компания страхует на год жизнь двух людей 60-ти лет. Оценить вероятности возможных страховых случаев.

Решение.

Пусть событие А={ первый не умрет}, событие В= {второй не умрет}. Рассмотрим различные сочетания этих событий:

а) вероятность того, что ни один не умрет, равна

P(AB)=Р(А) ∙Р(В)=0,91∙0,91 = 0,8281.

б) вероятность того, что они оба умрут, равна

(1 – Р(А)) ∙(1 – Р(В)) = (1 – 0,91)∙(1 – 0,91) = 0,0081.

в) вероятность того, что умрет хотя бы один, равна

(1 ‑ Р(АВ)) = 1 – Р(А) ∙Р(В) = 1 – 0,91∙0,91 = 0,1719.

г) вероятность того, что умрет один, равна:

Р(А) ∙(1- Р(В)) +(1- Р(А)) ∙Р(В) = 0,91∙(1–0,91)+ (1 – 0,91)∙0,91 = 0,1638

Система событий А1, А2, …, Аn называется независимой в совокупности, если вероятность произведения этих событий равна произведению вероятностей для любой комбинации сомножителей этой системы, то есть

Р(А1∙А2∙ … ∙Аn) = Р(А1)∙Р(А2) ∙ … ∙Р(Аn). (1.29)

Пример 1.56. Шифр сейфа состоит из 7-ми цифр. Чему равна вероятность того, что вор с первого раза наберет его верно?

Решение. Чтобы с первого раза верно набрать все семь цифр, должны состояться все события, состоящие в том, что вор правильно наберет каждую из цифр, то есть эти события являются совместными. Следовательно Р(А) = Р(А1∙А2∙ … ∙А7)

Так как события Аi независимые и вероятность каждого события равна Р(Аi) = р=1/10, согласно правилу (1.16) имеем Р(А) = Р(А1)∙Р(А2)∙…∙Р(А7) = (1/10)7.

Пример 1.57. В более общем виде задача о страховке: вероятность того, что человек в возрасте 60 лет не умрет в ближайший год, равна р=0,91. Страховая компания страхует на год жизнь n людей этого возраста.

а) вероятность того, что ни один из них не умрет согласно формуле (1.28) равна: рn (не придется платить страховую премию никому)-события независимы, совместны.

б) вероятность того, что они все умрут, равна: (1 – 0,91)n (самые большие выплаты).

в) вероятность того, что умрет один, равна: n∙(1– р)∙рn-1 (если их перенумеровать, то умерший может иметь номер 1, 2, …, n – это n разных событий, каждое из которых имеет вероятность (1-р)∙рn-1).

. 11.Некоторые теоремы теории вероятностей: полная группа событий, формула полной вероятности; формула Байеса;

Формула полной вероятности

Определение 1. Говорят, что события Н1, Н2, …, Нn образуют полную группу событий, если они попарно несовместны и достоверно появление хотя бы одного из них, другими словами, их объединение есть достоверное событие, то есть они удовлетворяют условиям

(1.33)

Определение 2. Полная группа попарно несовместных событий называется системой гипотез, а сами эти события – гипотезами. Итак, система гипотез - это разбиение на непересекающиеся множества.

Предположим теперь, что интересующее нас событие А может наступить при условии появления одного из несовместных событий Hi и известны вероятности этих событий р(Hi) и условные вероятности р(А|Hi). Как найти вероятность события А? Ответ на этот вопрос дает следующая теорема.

Теорема. Пусть для некоторого события А системы гипотез Н1,…, Нn известны P(H1), P(H2),…, P(Hn) и Р(А|H1), …, P(Hn). Тогда безусловная вероятность Р(А) события А выражается через его условные вероятности по формуле (1.34)

которую называют формулой полной вероятности

Доказательство. Воспользуемся тем, что Hi (гипотезы) попарно несовместны (следовательно, несовместны и Hi∙А), и что их сумма есть достоверное событие

(1.35)

Эта схема имеет место всегда, когда можно говорить о разбиении всего пространства событий на несколько, вообще говоря, разнородных областей, в каждой из которых имеется некоторая совокупность элементарных событий АНi, благоприятствующих появлению события А (рис. 1.11.2, где область, соответствующая событию А, заштрихована).

М

Рис. 1.11.2

атематическая модель может быть, например, такой: имеется несколько урн разного состава; в первой урне n1 шаров, из них m1 белых и т.д. По формуле полной вероятности находится вероятность того, что, выбрав урну наугад, достанем из нее белый шар.

В экономике это, например, разбиение страны или района на регионы разного размера и разных условий, когда известна доля каждого района р(Hi) и вероятность (доля) какого-то параметра в каждом регионе (например, процент безработных –в каждом регионе он свой) – р(А|Hi).

На складе может лежать продукция с трех разных заводов, поставляющих разное количество продукции с разной долей брака и т.д.

Пример 1.61. Литье в болванках поступает из 2-х цехов: 70% из первого и 30% из второго. При этом продукция первого цеха имеет 10% брака, а второго – 20%. Найти вероятность того, что одна, взятая наугад, болванка имеет дефект.

Решение. Вероятность того, что взятая болванка поступила из 1-го цеха, равна Р(Н1) = 0,7; вероятность того, что взятая болванка поступила из 2-го цеха, равна р(Н2) = 0,3. Вероятность того, что болванка из 1-го цеха бракованная, равна р(А|Н1) = 0,1; вероятность того, что болванка из 2-го цеха бракованная, равна р(А|Н2) = 0,2.

Тогда искомая вероятность того, что взятая наугад деталь бракованная, равна

Р(А) = 0,7∙0,1 + 0,3∙0,2 = 0,13 (в среднем 13% болванок с цехе дефектны).

По этой же схеме решаются задачи и в общем случае.

Пример 1.62. Вернемся к примеру 1.49 (раздел 1.10.4) с урной, в которой лежит N шаров, из которых n белых. Достаем из нее (без возвращения) два шара. Какова вероятность того, что второй шар белый?

Решение. Обозначим событие Н1 = {первый шар белый}; вероятность этого события Р(Н1) = n/N. Событие Н2 = {первый шар черный}; вероятность события Р(Н2) = (N-n)/N; событие A = {второй шар белый}.

Условные вероятности события А равны Р(А|Н1) = (n-1)/(N-1); Р(А|Н2) = n/(N-1).

Искомая вероятность

Эта модель может быть применена при решении такой задачи: из N билетов студент выучил только n. Что ему выгоднее – тянуть билет самым первым или вторым? Оказывается, в любом случае он с вероятностью n/N вытянет хороший билет и с вероятностью (N-n)/N плохой.

Формула Байеса

Предположим, что событие А может произойти при условии появления одного из несовместных событий (гипотез) Hi , известны вероятности этих гипотез р(Hi) и условные вероятности р(А|Hi). Дополнительно известно, что событие А произошло. Найдем вероятность того, что при этом была реализована гипотеза Hk. По определению условной вероятности

(1.36)

Полученное соотношение называют формулой Байеса. Она позволяет по известным (до проведения опыта) априорным вероятностям гипотез р(Нi) и условным вероятностям р(А|Hi) определить условную вероятность р(Hi | А), которую называют апостериорной (то есть полученной при условии, что в результате опыта событие А уже произошло).

Пример 1.63. 30% пациентов, поступающих в больницу, принадлежат первой социальной группе, 20% – второй и 50% - третьей. Вероятность заболевания туберкулезом для представителя каждой социальной группы, соответственно, равна 0,02, 0,03 и 0,01. Проведенные анализы для случайно выбранного пациента показали наличие туберкулеза. Найти вероятность того, что это представитель третьей группы.

Решение. Пусть Н1, Н2, Н3 – гипотезы, заключающиеся в том, что пациент принадлежит соответственно первой, второй и третьей группам. Очевидно, что они образуют полную группу событий, причем р(Н1)=0,3, р(Н2)=0,2, р(Н3)=0,5. По условию событие А, обнаружение туберкулеза у больного, произошло, причем условные вероятности по данным условия равны Р(А|H1)=0,02, Р(А|H2)=0,03 и Р(А|H3)=0,01. Апостериорную вероятность Р(H3| А) вычислим по формуле Байеса:

12. Повторение испытаний: формула Бернулли; асимптотическая формула Муавра-Лапласа; Интегральная теорема Лапласа; распределение Пуассона.

Формула Бернулли (Якоб Бернулли, 1654-1705)

При практическом применении теории вероятностей часто приходится встречаться с задачами, в которых возникает необходимость определения параметров случайных событий при многократном повторении одного и того же опыта или аналогичных опытов при неизменном комплексе условий. В результате каждого опыта может появиться или не появиться некоторое событие А, причем нас интересует не результат каждого отдельного опыта, а общее число появлений события А в результате серии опытов. Например, общее число попаданий в серии выстрелов по одной и той же цели. В подобных задачах требуется определять вероятность любого заданного числа появлений события в результате серии опытов. Такие задачи весьма просто решаются в случае, когда опыты являются независимыми.

Несколько опытов называются независимыми относительно события А, если вероятность появления события А в каждом испытании не зависит от исходов других испытаний. Например, бросание монеты – независимые опыты. Вынимание нескольких карт из колоды представляют независимые опыты, если карты возвращаются в колоду.

В разных независимых испытаниях событие А может иметь либо различные вероятности, либо одну и ту же вероятность. Будем далее рассматривать лишь такие независимые испытания, в которых событие А имеет одну и ту же вероятность.

Пусть производится n независимых испытаний, в каждом из которых событие А может появиться, либо не появиться. Пусть вероятность события А в каждом испытании одна и та же, а именно равна р. Следовательно, вероятность ненаступления события А в каждом испытании также постоянна и равна q =1‑p. Если каждое отдельное испытание рассматривается как простое событие, то событие, состоящее из совокупности таких простых событий, называется сложным событием. Например, вероятность того, что в четырех испытаниях событие А появится 3 раза, можно представить в виде следующих сложных событий: ААА , АА А, А АА, ААА. Такие случайные события описываются схемой Бернулли.

Схемой Бернулли называется последовательность испытаний, удовлетворяющая следующим условиям:

1) при каждом испытании различают лишь два исхода: появление события А, называемый «успехом», либо не появление события А («неуспех»);

2) испытания являются независимыми, то есть, исход каждого испытания не зависит от исходов всех предыдущих испытаний;

3) вероятность появления события А во всех испытаниях постоянна и равна Р(А) = р, вероятность противоположного события – не появления события А также постоянна и равна Р( ) = 1 – р =q

Поставим перед собой задачу: определить вероятность того, что при n испытаниях событие А появится ровно k раз и, следовательно, не появится n-k раз. Искомую вероятность обозначают Рn(k). По теореме умножения вероятностей независимых событий (формула (1.28)) эта вероятность равна Рn(k) = pk ∙qn-k. Таких сложных событий может быть столько, сколько можно составить сочетаний из n элементов по k элементов, т.е. Так как эти сложные события несовместны, то по теореме сложения вероятностей несовместных событий (аксиома 4) искомая вероятность равна сумме вероятностей всех возможных сложных событий. Поскольку вероятности всех этих сложных событий одинаковы, то искомая вероятность (появления события А ровно k раз в n событиях) равна вероятности одного сложного события, умноженной на их число:

Рn(k) = pk ∙qn-k

или (1.37)

Полученную формулу называют формулой Бернулли или биномиальной формулой Бернулли.

Локальная теорема Лапласа. Асимптотическая

формула Муавра-Лапласа (Пьер Симон Лаплас, 1749-1827)

(Абрахам де Муавр, 1667-1754)

При больших значениях n, k, p (0<р<1) пользоваться формулой Бернулли достаточно трудно, так как формула требует выполнения действий над громадными числами. Например, если n=50, k=30, p=0,1, то для отыскания вероятности Р50(30) надо вычислить выражение

Р50(30)= 50!/(30!20!)∙(0,1)30∙(0,9)20,

где 50! = 30 414 093∙1057, 30! = 26 525 286∙1025 , 20!= 24 329 020∙1011 .

Оказывается можно упростить процесс вычисления интересующей нас вероятности.

Если число испытаний n достаточно велико, вероятность появления события А ровно k раз в n испытаниях можно найти по теореме Лапласа и асимптотической формуле Муавра-Лапласа.

Локальная теорема Лапласа. Если вероятность р появления события А в каждом испытании постоянна и отлична от нуля и единицы, то вероятность Рn(k) того, что событие А появится в n испытаниях ровно k раз, приближенно равна (тем точнее, чем больше n) значению функции

(1.39)

где - функция Гаусса.

Значения функции φ(х) приводятся в специальных таблицах (например, Гмурман, приложение 1) для положительных значений х. Для отрицательных значений х можно пользоваться теми же таблицами, так как функция φ(х) нечетна, т.е. φ(-х)= -φ(х).

Пример 1.67. Найти вероятность того, что событие А наступит ровно 80 раз в 400 испытаниях, если вероятность появления этого события в каждом испытании равна 0,2.

Решение. По условию n=400; k=80; p=0,2; q=0,8. по асимптотической формуле Муавра-Лапласа

Вычислим определяемое данными задачи значение х:

По таблице приложения 1 (Гмурман В.Е.) находим

Искомая вероятность Р400(80)=(1/8)∙0,3989=0,04986.

Формула Бернулли приводит примерно к такому же результату (выкладки ввиду их громоздкости упущены): Р400(80)=0,0498.

Интегральная теорема Лапласа

Пусть производится n испытаний, в каждом из которых вероятность появления события А постоянна и равна р (0<р<1). Как вычислить вероятность того, что событие А появится в n испытаниях не менее k1 и не более k2 раз, т.е. Pn(k1,k2) (для кратности говорят «от k1 до k2 раз)? На этот вопрос дает ответ интегральная теорема Лапласа.

Теорема. Если вероятность р наступления события А в каждом испытании постоянна и отлична от нуля и единицы, то вероятность Pn(k1,k2) того, что событие А появится в n испытаниях от k1 до k2 раз, приближенно равна определенному интегралу

(1.40)

где и

При решении задач пользуются специальными таблицами, так как неопределенный интеграл не выражается через элементарные функции. Таблица для интеграла Ф(х) = (интегральная функция Лапласа) приводится в приложениях к учебникам по теории вероятностей (например, Гмурман, приложение 2, с.462). В таблицах приводятся значения Ф(х) для положительных значений х и для х=0; для х<0 пользуются той же таблицей [функция Ф(х) нечетна, т.е. Ф(-х)=-Ф(х)]. В таблицах приводятся значения интеграла лишь до х=5, так как для х >5можно принять Ф(х) = 0,5. Значение искомой вероятности равно

Распределение Пуассона

Пусть производится n независимых испытаний, в каждом из которых вероятность появления события А равна р. Для определения вероятности k появлений события А в этих испытаниях используется формула Бернулли. Если же n велико, то пользуются асимптотической формулой Муавра-Лапласа. Однако, эта формула непригодна, если вероятность события мала (р≤0,1). В этих случаях (n велико, р мало, а их произведение np<10) прибегают к асимптотической формуле Пуассона.

Сделаем допущение: произведение np сохраняет постоянное значение, то есть np=λ=сonst. Это означает, среднее число появлений события А в различных сериях испытаний, т.е. при различных значениях n, остается неизменным.

По формуле Бернулли интересующая нас вероятность равна

Так как np=λ, то p= λ/n. Следовательно,

Так как n имеет очень большое значение, вместо Рn(k) найдем . При этом будет найдено лишь приближенное значение отыскиваемой вероятности: хотя n и велико, но конечно при отыскании предела мы устремим n к бесконечности. Поскольку произведение np сохраняет свое постоянное значение, то при n→ ∞ вероятность р→0.

Итак,

Таким образом, (1.41)

Эта формула выражает закон распределения Пуассона вероятностей массовых (n велико) и редких (p мало) событий. Имеются специальные таблицы, пользуясь которыми можно найти Pn(k), зная k и λ.

13. Случайные величины: дискретные и непрерывные случайные величины. Функция распределения дискретной случайной величины и её свойства.

Основные определения. Результат любого случайного эксперимента можно характеризовать качественно и количественно. Качественный результат случайного эксперимента - случайноесобытие. Любая количественная характеристика, которая в результате случайного эксперимента может принять одно из некоторого множества значений, - случайная величина. Случайная величинаявляется одним из центральных понятий теории вероятностей.

Пусть   - произвольное вероятностное пространство. Случайной величиной называется действительная числовая функция  = ( ),   , такая, что при любом действительном x  .

Событие   принято записывать в виде  < x. В дальнейшем случайные величины будем обозначать строчными греческими буквами  ,  ,  , …

Случайной величиной является число очков, выпавших при бросании игральной кости, или рост случайно выбранного из учебной группы студента. В первом случае мы имеем дело с дискретнойслучайной величиной (она принимает значения из дискретного числового множества M={1, 2, 3, 4, 5, 6} ; во втором случае - с непрерывной случайной величиной (она принимает значения из непрерывного числового множества - из промежутка числовой прямой I=[100, 3000]).

Функция распределения случайной величины. Её свойства

Каждая случайная величина полностью определяется своей функцией распределения.

Если  .- случайная величина, то функция F(x) = F (x) = P( < x) называется функцией распределения случайной величины  . Здесь P( < x) - вероятность того, что случайная величина принимает значение, меньшее x.

Важно понимать, что функция распределения является “паспортом” случайной величины: она содержит всю информация о случайной величине и поэтому изучение случайной величины заключается в исследовании ее функции распределения, которую часто называют простораспределением.

Функция распределения любой случайной величины обладает следующими свойствами:

  • F(x) определена на всей числовой прямой R;

  • F(x) не убывает, т.е. если x1 x2, то F(x1)  F(x2);

  • F(- )=0, F(+ )=1, т.е.   и  ;

  • F(x) непрерывна справа, т.е. 

.

Функция распределения дискретной случайной величины

Если  - дискретная случайная величина, принимающая значения x1 < x2 < … < xi < … с вероятностями p1 < p2 < … < pi < …, то таблица вида

x1

x2

xi

p1

p2

pi

называется распределением дискретной случайной величины.

Функция распределения случайной величины, с таким распределением, имеет вид

У дискретной случайной величины функция распределения ступенчатая. Например, для случайного числа очков, выпавших при одном бросании игральной кости, распределение, функция распределения и график функции распределения имеют вид:

1

2

3

4

5

6

1/6

1/6

1/6

1/6

1/6

1/6

Функция распределения и плотность вероятности непрерывной случайной величины

Если функция распределения F (x) непрерывна, то случайная величина  называется непрерывной случайной величиной.

Если функция распределения непрерывной случайной величины дифференцируема, то более наглядное представление о случайной величине дает плотность вероятности случайной величины p(x), которая связана с функцией распределения F (x) формулами

 и  .

Отсюда, в частности, следует, что для любой случайной величины  .

Квантили

При решении практических задач часто требуется найти значение x, при котором функция распределения F (x) случайной величины  принимает заданное значение p, т.е. требуется решить уравнение F (x) = p. Решения такого уравнения (соответствующие значения x) в теории вероятностей называются квантилями.

Квантилью xp (p-квантилью, квантилью уровня p) случайной величины  , имеющей функцию распределения F (x), называют решение xp уравнения F (x) = pp  (0, 1). Для некоторых pуравнение F (x) = p может иметь несколько решений, для некоторых - ни одного. Это означает, что для соответствующей случайной величины некоторые квантили определены неоднозначно, а некоторые кванитили не существуют.

Квантили, наиболее часто встречающиеся в практических задачах, имеют свои названия:

медиана - квантиль уровня 0.5;

нижняя квартиль - квантиль уровня 0.25;

верхняя квартиль - квантиль уровня 0.75;

децили - квантили уровней 0.1, 0.2, …, 0.9;

процентили - квантили уровней 0.01, 0.02, …, 0.99.

Вероятность попадания в интервал

Вероятность того, что значение случайной величины F (x) попадает в интервал (a, b), равная P(a < < b) = F (b) -F (a), вычисляется по формулам:

 - для непрерывной случайной величины и

- для дискретной случайной величины.

Если a= -  , то   ,

если b=  , то  .

14. Числовые характеристики случайной величины: математическое ожидание дискретных и непрерывных случайных величин; свойства математического ожидания.

Закон распределения случайной величины дает исчерпывающую информацию о случайной величине. Однако, иногда можно охарактеризо­вать достаточно ярко случайную величину с помощью всего одного или нескольких чисел. Например, можно указать закон распределения количества осадков выпадающих в данной местности за определенный месяц, но проще и нагляднее указать среднее количество осадков в данном месяце.

Числа, назначение которых в сжатом виде характеризовать основные особенности распределений случайных величин, называются числовыми характеристиками. Рассмотрим некоторые из числовых характеристик и их основные свойства.

Математическое ожидание и его свойства.

Математическим ожиданием (или средним значением) дискретной случайной величины называется сумма произведений всех её возможных значение на соответствующие им вероятности.

X

P

 

 

 

 

Т.е., если сл. величина имеет закон распределения, то

называется её математическим ожиданием. Если сл. величина имеет бесконечное число значений, то математическое ожидание определяется суммой бесконечного ряда  , при условии, что этот ряд абсолютно сходится (в противном случае говорят, что математическое ожидание не существует).

Для непрерывной сл. величины, заданной функцией плотности вероят­ности f(x), математическое ожидание определяется в виде интеграла

при условии, что этот интеграл существует (если интеграл расходится, то говорят, что математическое ожидание не существует).

Пример 1. Определим математическое ожидание случайной величины распределённой по закону Пуассона. По определению

или обозначим

Значит, параметр  ,определяющий закон распределения пуассоновской случайной величины равен среднему значению этой величины.

Пример 2. Для случайной величины, имеющей показательный закон распределения  , математическое ожидание равно

( ):

(в интеграле пределы взять, с учётов того. что  f(x) отлична от нуля только при положительных x).

Пример 3. Случайная величина, распределенная по закону распределения Коши, не имеет среднего значения. Действительно

Свойства математического ожидания.

Свойство 1. Математическое ожидание постоянной равно самой этой постоянной.

Постоянная С принимает это значение с вероятностью единица и по определению М(С)=С1=С

Свойство 2. Математическое ожидание алгебраической суммы случайных величин равно алгебраической суме их математических ожиданий.

Ограничимся доказательством этого свойства только для суммы двух дискретных случайных величин, т.е. докажем, что

Под суммой двух дискретных сл. Величин понимается сл. Величина, которая принимает значения   с вероятностями

По определению

Но 

где   вероятность события  , вычисленная при условии, что  . В правой части последнего равенства перечислены все случаи появления события  , поэтому   равна полной вероятности появления события  , т.е.  . Аналогично  . Окончательно имеем

Свойство 3. Математическое ожидание произведения двух независимых случайных величин равно произведению их математических ожиданий.

У

Q

Х

 

Р

 

 

 

 

 

 

 

Приведем доказательства этого свойства только для дискретных величин. Для непрерывных случайных величин оно доказывается аналогично.

 

Пусть Х и У независимы и имеют законы распределения

 

Произведением этих случайных величин будет случайная величина, которая принимает значения   с вероятностями равными, в силу независимости случайных величин,  . Тогда

Следствие. Постоянный множитель можно выносить за знак матема­тического ожидания. Так век постоянная С не зависит от того какое значение примет сл. величина X, то по   свойству 3. имеем

М(СХ)=М(С)М(Х)=СМ(Х)

Пример. Если a и b постоянные, то М(ах+b)=аМ(х)+b.

Математическое ожидание числа появления события в схеме независимых испытаний.  Пусть производится n независимых опытов, ве­роятность появления события в каждом из которых равна Р. Чис­ло появлений события в этих n опытах является случайной величиною Х распределённой по биномиальному закону. Однако, непосредственное вычисление её среднего значения громоздко. Для упрощения воспользуемся разложением, которым будем пользоваться в дальнейшем неоднократно:  Число   появления события в n опытах состоит из числа появлений события в отдельных опытах, т.е.

где   имеет закон распределения (принимает значение 1, если событие в данном опыте произошло, и значение 0, если событие в данном опыте не появилось).

0

1

Р

1-р

р

 

 

 

 

Поэтому

или

т.е. среднее число появлений события в n независимых опытах равно произведению числа опытов на вероятность появления события в одном опыте.

Например, если вероятность попадания в цель при одном выстреле равна 0,1, то среднее число попадания в 20 выстрелах равно 200,1=2.

 

Дисперсия и среднее квадратическое отклонение.

Названные числовые характеристики дают представление о разбросе случайных величин относительно их среднего значения.

Дисперсией (рассеянием) случайной величины называется математическое ожидание квадрата отклонения случайной величины от ее математического ожидания.

Для вычисления дисперсии можно использовать слегка преобразованную формулу

т.к. М(х), 2 и   постоянные величины, то

.

Свойства дисперсии.

Свойство 1. Дисперсия постоянной равна нулю. По определению

Свойство 2. Постоянную можно выносить за знак дисперсии с возведением в квадрат.

Доказательство:

Центрированной случайной величиной называется отклонение случайной величины от ее математического ожидания.

Центрированная величина обладает двумя удобными для преобразования свойствами:

Свойство 3. Если случайные величины Х и У независимы, то

Доказательство. Обозначим  . Тогда   и  . Поэтому

Во втором слагаемом в силу независимости случайных величин и свойств центрированных случайных величин

поэтому равенство можно продолжить

Пример. Если a и b – постоянные, то D(ax+b)=D(ax)+D(b)=

Дисперсия, как характеристика разброса случайной величины, имеет один недостаток. Если, например, Х – ошибка измерения имеет размерность ММ, то дисперсия имеет размерность  . Поэтому часто предпочитают пользоваться другой характеристикой разброса – средним квадратическим отклонением, которое равно корню квадратному из дисперсии.

Среднее квадратическое отклонение имеет ту же размерность, что и сама случайная величина.

Дисперсия числа появления события в схеме независимых испытаний.

 Производится n независимых испытаний и вероятность появления события в каждом испытании равна р. Выразим, как и прежде, число появления события Х через число появления события в отдельных опытах

Так как опыты независимы, то и связанные с опытами случайные величины   независимы. А в силу независимости   имеем

0

1

Р

1-р

р

 

 

 

 

Но каждая из случайных величин имеет закон распределения и  , поэтому по определению дисперсии

,

где q=1-p

В итоге имеем 

Среднее квадратическое отклонение числа появления событий в n независимых опытах равно  .

 

Моменты случайных величин.

Помимо уже рассмотренных случайные величины имеют множество других числовых характеристик.

Начальным моментом k-го порядка случайной величины Х называется математическое ожидание k-ой степени этой случайной величины.

Центральным моментом k-го порядка случайной величины Х называется математическое ожидание k-ой степени соответствующей центрированной величины.

Легко видеть, что центральный момент первого порядка всегда равен нулю, центральный момент второго порядка равен дисперсии, т.к.  .

Центральный момент третьего порядка дает представление об асимметрии распределения случайной величины. Моменты порядка выше второго употребляются сравнительно редко, поэтому мы ограничимся только самими понятиями о них.

Числовые характеристики системы случайных величин составляют числовые характеристики каждой из величин, входящих в систему, и числовые характеристики, дающие представление о характере связи между величинами. Числовые характеристики каждой из величин по отдельности определяются как числовые характеристики обычных случайных величин. Из числовых характеристик зависимости между величинами назовем лишь наиболее употребимую.

15. Дисперсия и среднеквадратическое отклонение дискретных и непрерывных случайных величин; свойства дисперсии.

Дисперсией случайной величины   называют математическое ожидание квадрата отклонения случайной величины   от своего математического ожидания 

Для дискретной случайной величины   дисперсия вычисляется по формуле

для непрерывной находят интегрированием

Если непрерывная величина заданная на интервале   то дисперсия равна интегралу с постоянными пределами интегрирования