
- •2. Свойства вероятности
- •1. Теорема сложения вероятностей несовместимых событий.
- •4. Формула полной вероятности.
- •5. Формула Бейеса.
- •Вопросы для контроля знаний и подведения итога прочитанной лекции
- •7. Вопросы для контроля знаний и подведения итога прочитанной лекции
- •1. Случайные величины
- •1. Понятие «случайные величины».
- •2. Математическое ожидание дискретной случайной величины
- •2. Свойства математического ожидания дискретной случайной величины.
- •3. Дисперсия дискретной случайной величины
- •3. Среднее квадратическое отклонение.
- •4. Понятие о моментах распределения.
- •4. Непрерывные случайные величины
- •3. Математическое ожидание и дисперсия непрерывной случайной величины.
- •5. Некоторые законы распределения случайных величин
- •2. Локальная и интегральная предельные теоремы Лапласа.
- •3. Гипергеометрическое распределение
- •Вопросы для контроля знаний и подведения итога прочитанной лекции
- •6. Вопросы для контроля знаний и подведения итога прочитанной лекции
- •1. Генеральная совокупность и выборка
- •3. Оценки параметров генеральной совокупности по ее выборке
- •6. Вопросы для контроля знаний и подведения итога прочитанной лекции
- •6. Вопросы для контроля знаний и подведения итога прочитанной лекции
- •1. Основные понятия и определения графа и его элементов
- •2. Деревья. Лес. Бинарные деревья
- •3. Способы задания графа. Изоморфные графы
- •4. Сети. Сетевые модели представления информации
- •5. Применение графов и сетей
- •6. Вопросы для контроля знаний и подведения итога прочитанной лекции
Лекция 4. СОБЫТИЕ И ВЕРОЯТНОСТЬ
Цель: Изучить основные понятия теории вероятности
План:
1.Основные понятия. Определение вероятности
2. Свойства вероятности
3. Вопросы для контроля знаний и подведения итога прочитанной лекции
1. Основные понятия. Определение вероятности
1. Понятие о случайном событии. Опыт, эксперимент, наблюдение явления называется испытанием. Испытаниями, например, являются бросание монеты, выстрел из винтовки, бросание игральной кости (кубика с нанесенными на каждую грань числом очков — от одного до шести).
Результат, исход испытания, называется событием. Событиями являются выпадение герба или цифры, попадание в цель или промах, появление того или иного числа очков на брошенной игральной кости.
Для обозначения событий используют прописные (большие) буквы латинского алфавита: А, В, С и т.д.
Определение 1. Два события называют совместимыми, если появление одного из них не исключает появления другого в одном и том же испытании.
Пример 8.1. Испытание — однократное бросание игральной кости. Событие А — появление четырех очков. Событие В — появление четного числа очков. События А и В совместимые.
Определение 2. Два события называют несовместимыми, если появление одного из них исключает появление другого в одном и том же испытании.
Пример 8.2. Испытание — однократное бросание монеты. Событие А — выпадение герба, событие В — выпадение цифры. Эти события несовместимы, так как появление одного из них исключает появление другого.
Несовместимость более чем двух событий означает их попарную несовместимость.
Пример 8.3. Испытание — однократное бросание игральной кости. Пусть события А1, А2, А3, А4, А5, А6 — соответственно выпадение одного очка, двух, трех и т.д. Эти события являются несовместимыми.
Определение 3. Два события А и В называются противоположными, если в данном испытании они несовместимы и одно из них обязательно происходит.
Событие,
противоположное
событию А,
обозначают
через
.
Пример
8.4.
Испытание
— однократное бросание монеты. Событие
А
— выпадение
герба, событие В
—
выпадение цифры. Эти события противоположны,
так как исходами бросания могут быть
лишь они, и появление одного из
них исключает появление другого, т.е. А
=
или
= В.
Определение 4. Событие называют достоверным, если в данном испытании оно является единственно возможным его исходом, и невозможным, если в данном испытании оно заведомо не может произойти.
Пример 8.5. Испытание — извлечение шара из урны, в которой все шары белые. Событие А — вынут белый шар — достоверное событие; событие В — вынут черный шар — невозможное событие.
Заметим, что достоверное и невозможное события в данном испытании являются противоположными.
Определение 5. Событие А называют случайным, если оно объективно может наступить или не наступить в данном испытании.
Пример 8.6. Событие А6 — выпадение шести очков при бросании игральной кости — случайное. Оно может наступить, но может и не наступить в данном испытании.
Пример 8.7. Событие А98 — прорастание девяноста восьми зерен пшеницы из ста — случайное. Это событие может наступить, но, может быть, прорастет зерен больше или меньше.
Можно ли как-то измерить возможность появления некоторого случайного события? Другими словами, можно ли охарактеризовать эту возможность некоторым числом?
2. Классическое определение вероятности. Всякое испытание влечет за собой некоторую совокупность исходов — результатов испытания, т.е. событий. Во многих случаях возможно перечислить все события, которые могут быть исходами данного испытания.
Определение 1. Говорят, что совокупность событий образует полную группу событий для данного испытания, если его результатом обязательно становится появление хотя бы одного из них.
Приведем примеры полных групп событий: выпадение герба и выпадение цифры при одном бросании монеты; попадание в цель и промах при одном выстреле; выпадение одного, двух, трех, четырех, пяти и шести очков при одном бросании игральной кости.
Рассмотрим полную группу попарно несовместимых событий U1, U2, ..., Un , связанную с некоторым испытанием. Предположим, что в этом испытании осуществление каждого из событий Ui, (i = 1, 2,..., n) равновозможно, т.е. условия испытания не создают преимущества в появлении какого-либо события перед другими возможными.
Определение 2. События U1, U2, ..., Un, образующие полную группу попарно несовместимых и равновозможных событий, будем называть элементарными событиями.
Пример 8.8. Вернемся к опыту с подбрасыванием игральной кости. Пусть Ui — событие, состоящее в том, что кость выпала гранью с цифрой i. Как уже отмечалось, события U1, U2, ..., U6 образуют полную группу попарно несовместимых событий. Так как кость предполагается однородной и симметричной, то события U1, U2, ..., U6 являются и равновозможными т.е. элементарными.
Определение 3. Событие А называют благоприятствующим событию В, если наступление события А влечет за собой наступление события В.
Пример 8.9. Пусть при бросании игральной кости события U2, U4 и U6 — появление соответственно двух, четырех и шести очков и А — событие, состоящее в появлении четного числа очков; события U2, U4 и U6 благоприятствуют событию А.
Определение 4 (классическое определение вероятности).
Вероятностью
Р(А) события
А
называют
отношение
числа элементарных
событий, благоприятствующих событию
А,
к
числу всех элементарных событий, т. е.
.
Пример 8.10. Вычислим вероятность выпадения герба при одном бросании монеты.
Решение. Очевидно, событие А — выпадение герба и событие В — выпадение цифры образуют полную группу несовместимых и равновозможных событий для данного испытания. Значит, здесь n = 2. Событию А благоприятствует лишь одно событие — само А, т.е. здесь т=1. Поэтому Р(А) = Ѕ.
Пример 8.11. Очевидно, что в опыте с игральной костью (пример 8.8)
Р(Ui) = 1/6, i= 1,2, ..., 6.
Пример 8.12. Найдем вероятность того, что при однократном бросании игральной кости выпадет число очков, делящееся на 2 (событие А).
Решение. Число элементарных событий здесь 6, а число благоприятствующих элементарных событий 3 (выпадение 2, 4 и 6), поэтому
Из приведенного классического определения вероятности вытекают следующие ее свойства.
1.
Вероятность
достоверного события равна единице.
Действительно,
достоверному событию должны
благоприятствовать все п
элементарных
событий, т.е. т
= п и,
следовательно,
2.
Вероятность
невозможного события равна нулю. В
самом деле,
невозможному событию не может
благоприятствовать ни одно из
элементарных событий, т.е. т
= 0,
откуда
3. Вероятность случайного события есть положительное число, заключенное между нулем и единицей.
Действительно, случайному событию благоприятствует лишь часть из общего числа элементарных событий. Поэтому в этом случае т < п и, значит, 0 < <1. Следовательно, 0 < Р(А) < 1.
Итак, вероятность любого события удовлетворяет двойному неравенству
0 < Р(А) < 1.
3. Относительная частота. Статистическое определение вероятности. Классическое определение вероятности не является пригодным для изучения произвольных случайных событий. Так, оно неприемлемо, если результаты испытания не равновозможны. Например, при бросании неправильной игральной кости выпадение ее различных граней не равновозможно.
В таких случаях используется, так называемое, статистическое определение вероятности.
Пусть произведено п испытаний, при этом некоторое событие А наступило т раз (т < n).
Определение
1.
Число т
называют
абсолютной
частотой (или
просто частотой)
события
А,
а
отношение
называют
относительной
частотой
события
А.
Пример
8.13.
При транспортировке из 10000 арбузов
испортилось 26. Здесь
т
= 26 — абсолютная
частота испорченных арбузов, а
-
относительная.
Результаты многочисленных опытов и наблюдений помогают заключить: при проведении серий из и испытаний, когда число п сравнительно мало, относительная частота Р*(А) принимает значения, которые могут довольно сильно отличаться друг от друга. Но с увеличением n — числа испытаний в сериях — относительная частота приближается к некоторому числу Р(А), стабилизируясь возле него и принимая все более устойчивые значения.
Пример 8.14. Было проведено 10 серий бросаний монеты, по 1 000 бросаний в каждой. Относительные частоты выпадения герба оказались равными 0,501; 0,485; 0,509; 0,536; 0,485; 0,488; 0,500; 0,497; 0,494; 0,484 (см. [16]). Эти частоты группируются около числа 0,5.
Определение 2 (статистическое определение вероятности). Вероятностью события А в данном испытании называют число Р(А), около которого группируются значения относительной частоты при больших п.
В условиях только что приведенного примера 8.14 указанная вероятность равна 0,5.
Пример 8.15. По официальным данным шведской статистики относительные частоты рождения девочек по месяцам 1935 г. характеризуются следующими числами (расположены в порядке следования месяцев, начиная с января): 0,486; 0,489; 0,490; 0,471; 0,478; 0,482; 0,462; 0,484; 0,485; 0,491; 0,482; 0,473 (см. [4]). Эти частоты группируются около числа 0,482.
Экспериментавтор |
Число бросаний |
Число выпаде-ний герба |
Относите-льная частота |
Бюффон |
4040 |
2048 |
0,5080 |
К. Пирсон |
12000 |
6019 |
0,5016 |
К. Пирсон |
24000 |
12012 |
0,5005 |
Таким образом, относительная частота события приближенно совпадает с его вероятностью, если число испытаний достаточно велико. Имеется огромный опытный материал по проверке последнего утверждения. Укажем еще один такой пример с бросанием монеты (см. таблицу выше)
Здесь относительные частоты незначительно отклоняются от числа 0,5, причем тем меньше, чем больше число испытаний. При 4040 испытаниях отклонение равно 0,008, а при 24000 — 0,0005.
Пример 8.16. Чтобы знать, какова вероятность для данного станка изготовить годную деталь, поступают так: проверяют одну или несколько партий деталей, изготовленных станком, подсчитывают число годных деталей, вычисляют относительную частоту и в соответствии с определением вероятность принимают равной этой частоте. Допустим, при проверке партии из 200 деталей 190 оказались годными. Тогда вероятность наудачу выбранной детали быть годной равна
Р*(А)=
=
0,095.
Вероятность найдена приближенно, так как 0,95 — это относительная частота.
Аналогичным образом поступают, например, при определении процента всхожести семян.
4. Основные формулы комбинаторики. Комбинаторика — раздел математики, изучающий вопросы о том, сколько комбинаций определенного типа можно составить из данных предметов (элементов).
Как при решении задач с использованием классического определения вероятности, так и в дальнейшем нам понадобятся некоторые формулы комбинаторики. Приведем наиболее употребительные из них.
Определение 1. Размещениями из п различных элементов по т элементов (т ≤ п) называют комбинации, составленные из данных п элементов по т элементов, которые отличаются либо самими элементами, либо порядком элементов.
Например, из трех элементов а, b, с можно составить по два элемента следующих размещений:
аb, ас, bс, bа, са, сb.
Число различных размещений из п элементов по т элементов определяется с помощью формулы
=n!/(n-m)!
Пример
8.17.
Сколько
можно составить сигналов из 6 флажков
различного
цвета, взятых по 2? Искомое число сигналов
=6!/4!
= 30.
Определение 2. Перестановками из п различных элементов называют размещения из этих п элементов по п.
Как видно из определений 1 и 2, перестановки можно считать частным случаем размещений при т = п. Следовательно, число всех перестановок из п элементов вычисляется по формуле
Пример 8.18. Для лечения заболевания применяют три лекарства. Полагают, что последовательность, в которой применяют лекарства, оказывает существенное влияние на результат лечения. Сколько имеется различных порядков назначения этих лекарств?
Решение. Имеется Р3 =3! = 3-2-1 =6 различных порядков назначения трех лекарств.
Определение 3. Сочетаниями из п различных элементов по т элементов называются комбинации, составленные из данных п элементов по т элементов, которые отличаются хотя бы одним элементом.
Отметим разницу между сочетаниями и размещениями: в первых не учитывается порядок элементов.
Число сочетаний из п элементов по т элементов вычисляется по формуле
(8.1)
и
ли
Отметим
особенность формулы (8.1):
=
Пример 8.19. В лабораторной клетке содержат трех белых и трех коричневых мышей. Найти число способов выбора двух мышей, если они могут быть любого цвета.
Решение.
В данном случае цвет не существен.
Поэтому имеется
=61/(2!(6-2)!)=
61/(2!4!)=
15 способов, которыми двух мышеи можно
выбрать из шести.
Приведем, наконец, один из примеров применения формул комбинаторики к нахождению вероятности события.
Пример 8.20. Набирая номер телефона, абонент забыл две последние цифры и, помня лишь, что эти цифры различны, набрал их наудачу. Какова вероятность того, что номер набран правильно?
Решение.
Две последние цифры можно набрать
способами, а благоприятствовать
событию М
(цифры
набраны правильно) будет только один
способ,
поэтому
P(М)=1/ =1/90.
2. Свойства вероятности
1. Теорема сложения вероятностей несовместимых событий.
Определение 1. Суммой событий А и В называют событие С = А + В, состоящее в наступлении, по крайней мере, одного из событий А или В.
Пример 8.21. Испытание — стрельба двух стрелков (каждый делает по одному выстрелу). Событие А — попадание в мишень первым стрелком, событие В — попадание в мишень вторым стрелком. Суммой событий А и В будет событие С = А + В, состоящее в попадании в мишень, по крайней мере, одним стрелком.
Аналогично суммой конечного числа событий А1, А2,,..., Аk называют событие А=А1+А2 + ...+Аk , состоящее в наступлении хотя бы одного из событий Аi (i = 1, ... , k).
Определение 2. Произведением событий А и В называют событие С = =АВ, состоящее в том, что в результате испытания произошло и событие А, и событие В.
Аналогично произведением конечного числа событий А1, А2,,..., Аk называют событие А1, А2,,..., Аk, состоящее в том, что в результате испытания произошли все указанные события.
В условиях предыдущего примера произведением событий А к В будет событие С = АВ, состоящее в попадании в мишень двух стрелков.
Из определения произведения событий непосредственно следует, что АВ = ВА.
Теорема 8.1. Вероятность суммы двух несовместимых событий А и В равна сумме вероятностей этих событий:
Р(А+В) = Р(А) +Р(В). (8.2)
Доказательство. Используем классическое определение вероятности. Предположим, что в данном испытании число всех элементарных событий равно п, событию А благоприятствуют k элементарных событий, событию В - l элементарных событий. Так как А и В — несовместимые события, то ни одно из элементарных событий U1, U2,,..., Un не может одновременно благоприятствовать и событию А и событию В. Следовательно, событию А + В будет благоприятствовать k + l элементарных событий. По определению вероят-
н
ости
откуда
и следует утверждение теоремы.
Совершенно так же теорема формулируется и доказывается для любого конечного числа попарно несовместимых событий.
Следствие. Сумма вероятностей противоположных событий А и равна единице:
Р(А) + Р( ) =1. (8.3)
Так как события А и несовместимы, то по доказанной выше теореме Р(А) + Р( ) = Р(А + ). Событие А + есть достоверное событие (ибо одно из событий А или произойдет). Поэтому Р(А + ) = 1, что и приводит к искомому соотношению (8.3).
Пример 8.22. В урне 10 шаров: 3 красных, 5 синих и 2 белых. Какова вероятность вынуть цветной шар, если вынимается один шар?
Решение. Вероятность вынуть красный шар Р(А) = 3/10, синий Р(В) =5/10. Так как события А и В несовместимы, то по доказанной выше теореме (8.1) Р(А + B)= Р(А) +Р(В)= 3/10+5/10.=0,8.
Пример 8.23. На клумбе растут 20 красных, 30 синих и 40 белых астр. Какова вероятность сорвать в темноте окрашенную астру, если срывают одну астру?
Решение. Искомая вероятность равна сумме вероятностей сорвать красную или синюю астру, т. е.
2. Теорема умножения вероятностей.
Определение 1. Два события А и В называют независимыми, если вероятность появления каждого из них не зависит от того, появилось другое событие или нет1. В противном случае события А и В называют зависимыми.
(1 Несколько событий А1, А2,,..., Аk называют независимыми в совокупности (или просто независимыми), если вероятность появления любого из них не зависит от того, произошли какие-либо другие рассматриваемые события или нет.)
Пример 8.24. Пусть в урне находятся 2 белых и 2 черных шара. Пусть событие А — вынут белый шар. Очевидно, Р(А) =1/2 -. После первого испытания вынутый шар кладется обратно в урну, шары перемешиваются и снова вынимается шар. Событие В — во втором испытании вынут белый шар — также имеет вероятность Р(В) =1/2, т.е. события а и В — независимые.
Предположим теперь, что вынутый шар в первом испытании не кладется обратно в урну. Тогда если произошло событие А, т.е. в первом испытании вынут белый шар, то вероятность события В уменьшается (Р(В) =1/3); если в первом испытании был вынут черный шар, то вероятность события В увеличивается (Р(В) =2/3).
Итак, вероятность события В существенно зависит от того, произошло или не произошло событие А, в таких случаях события А и В — зависимые.
Определение 3. Пусть А и В — зависимые события. Условной вероятностью РА(В) события В называют вероятность события В, найденную в предположении, что событие А уже наступило.
Так, в примере 8.24 РA(В) = 1/3.
Заметим, что если события А и В независимы, то РА(В) = Р(В).
Теорема 8.2. Вероятность произведения двух зависимых событий А и В равна произведению вероятности одного из них на условную вероятность другого, найденную в предположении, что первое событие уже наступило:
Р(АВ) = Р(А)РА (В). (8.4)
Доказательство. Пусть из всего числа п элементарных событий k благоприятствуют событию А и пусть из этих k событий l благоприятствуют
с
обытию
A,
а значит, и событию А
В.
Тогда
что
и доказывает искомое равенство (8.4).
Замечание. Применив формулу (8.4) к событию ВА, получим
Р(ВА) = Р(В)РВ(А). (8.5)
Так как АВ = ВА (см. п. 1), то, сравнивая (8.4) и (8.5), получаем, что
Р (А) РA (В) = Р(В)РВ(А)
Пример 8.25. В условиях примера 8.24 берем тот случай, когда вынутый шар в первом испытании не кладется обратно в урну. Поставим следующий вопрос: какова вероятность вынуть первый и второй раз белые шары?
Решение. По формуле (8.4) имеем
Пример 8.26. Предположим, что вероятности встретить реку, загрязняемую постоянным фактором Р(А), временным фактором Р(В) и обоими факторами Р(АВ), равны соответственно 0,4; 0,1 и 0,05.
Решение. Найдем:
1) вероятность того, что река, загрязняемая временным фактором, будет к тому же загрязнена и постоянным фактором, т.е. РВ(А);
2) вероятность того, что река, загрязняемая постоянным фактором, будет еще загрязнена и временным фактором, т.е. РА(В). Из формулы (8.5) находим
откуда
Аналогично,
используя формулу (8.4), находим
Теорема 8.3. Вероятность произведения двух независимых событий А и В равна произведению вероятностей этих событий:
Р(АВ) = Р(А)Р(В). (8.6)
Замечание. В случае независимых событий эта теорема распространяется на любое конечное число их.
Доказательство. Действительно, если А и В — независимые события, то РA(В) = Р(В) и формула (8.4) превращается в формулу (8.6).
Пример 8.27. Вероятность выживания одного организма в течение 20 мин Р = 0,7. В пробирке с благоприятными для существования этих организмов условиями находятся только что родившиеся 2 организма. Какова вероятность того, что через 20 мин они будут живы?
Решение. Пусть событие А — первый организм жив через 20 мин, событие В — второй организм жив через 20 мин. Будем считать, что между организмами нет внутривидовой конкуренции, т.е. события А и В независимы. Событие, что оба организма живы, есть событие АВ. По теореме 8.3 получаем Р(АВ) = =0,7•0,7 = 0,49.
3. Теорема сложения вероятностей совместимых событий.
Теорема 8.4. Вероятность суммы двух совместимых событий А и В равна сумме вероятностей этих событий минус вероятность их произведения, т. е.
Р(А + В) = Р(А) + Р(В)-Р(АВ). (8.7)
Доказательство. Пусть из всего числа n элементарных событий k благоприятствуют событию А, l — событию В и m— одновременно событиям А и В. Отсюда событию А + В благоприятствуют k + l - т элементарных событий. Тогда
Р
Замечание. Если события А и В несовместимы, то их произведение АВ есть невозможное событие и, следовательно, Р(АВ) = 0, т.е. формула (8.2) является частным случаем формулы (8.7).
Пример 8.28. В посевах пшеницы на делянке имеется 95% здоровых растений. Выбирают два растения. Определим вероятность того, что среди них хотя бы одно окажется здоровым.
Решение. Введем обозначения для событий:
A1 - первое растение здоровое;
A2 - второе растение здоровое;
A1 + A2 - хотя бы одно растение здоровое.
Так как события A1 и A2 совместимые, то согласно формуле (8.7)
P(A1 + A2)= P(A1)+P(A2) - P(A1A2)=0,95+0,95-0,950,95 = 0,99751.