
- •Введение.
- •Предмет теории вероятности
- •1.2. Случайные события, их классификация.
- •1.3. Действия над событиями
- •1.6. Статистическое определение вероятности
- •1.7. Классическое определение вероятности
- •1.8. Элементы комбинаторики
- •1.10. Геометрическое определение вероятности
- •1.11. Аксиоматическое определение вероятности
- •1.12. Свойства вероятностей
- •1.13. Конечное вероятностное пространство
- •1.14. Условные вероятности
- •1.15. Вероятность произведения событий. Независимость событий
- •1.16. Вероятность суммы событий
- •1.17. Формула полной вероятности
- •1.18. Формула Байеса (теорема гипотез)
- •1.19. Независимые испытания. Схема Бернулли
- •1.20. Формула Бернулли
- •Глава 2.Случайные величины
- •2.1. Понятие случайной величины. Закон распределения случайной величины
- •2.2. Закон распределения дискретной случайной величины. Многоугольник распределения
- •2.3. Функция распределения и ее свойства. Функция распределения дискретной случайной величины
- •2.5. Числовые характеристики случайных величин
- •Мода и медиана. Моменты случайных величин. Асимметрия и эксцесс. Квантили
- •Глава Выборки и их характеристики
- •6.1. Предмет математической статистики
- •6.2. Генеральная и выборочная совокупности
- •6.3. Статистическое распределение выборки. Эмпирическая функция распределения/
- •6.4. Графическое изображение статистического распределения
- •6.5. Числовые характеристики статистического распределения
1.13. Конечное вероятностное пространство
Пусть производится некоторый опыт (эксперимент), который имеет конечное число возможных исходов w1, w2, w3,.., wn. В этом случае Ώ = { w1, w2, w3,.., wn } (или коротко Ώ = {w}) — конечное пространство, S — алгебра событий, состоящая из всех (их 2n) подмножеств множества Ώ.
Каждому элементарному событию wi Ώ, i = 1,2,... ,п поставим соответствие число p(wi), которое назовем «вероятностью элементарного события», т. е. зададим на Ώ числовую функцию, удовлетворяю двум условиям:
1) условие неотрицательности: p(wi) ≥ 0 для любого wi Ώ;
2)
условие нормированности
=
1.
Вероятность Р(А) для любого подмножества А Ώ , определим как сумму
Р(А)
=
(1.19)
т. е. вероятностью Р(А) события А назовем сумму вероятностей элементарных событий, составляющих событие А.
1.14. Условные вероятности
Пусть А и В — два события, рассматриваемые в данном опыте. Наступление одного события (скажем, А) может влиять на возможность наступления другого (В). Для характеристики зависимости одних событий от других вводится понятие условной вероятности.
Условной вероятностью события В при условии, что произошло событие А, называется отношение вероятности произведения этих событий к вероятности события А, причем Р(А) ≠ 0, обозначается символом Р(В|А).
Таким образом, по определению
Р(В|А)=
P(A)≠0
(1.20)
Вероятность Р(В), в отличие от условной, называется безусловной вероятностью.
Аналогично определяется условная вероятность события А при условии В, т.е. Р(А|В):
Р(А|В)
=
P(B)≠0 (1.21)
Отметим,
что условная вероятность, скажем Р(ВА),
удовлетворяет
аксиомам Колмогорова (п. 1.11): Р(ВА)
≥
0, очевидно; Р(ΏА)=
;
P((B+C)|A)=P(B|A)+P(C|A),
если BC=.
Поэтому для условной вероятности
справедливы все следствия (свойства)
из аксиом, полученные в п. 1.12. Формула
(1.20) принимается по определению при
аксиоматическом определении вероятности:
в случае классического (геометрического,
статистического) определение она может
быть доказана.
Пример 1.25. В урне 2 белых и 7 черных шаров. Из нее последователь- но вынимают два шара. Какова вероятность того, что 2-й шар окажется
белым при условии, что 1-й шар был черным?
Решим задачу двумя способами.
1.
Пусть А
—
1-й шар черный, В
—
2-й шар белый. Так как событие А
произошло,
то в урне осталось 8 шаров, из которых 2
белых. Поэтому P(В|А)
=
2.
Найдем Р(ВА)
по
формуле (1.20). Очевидно, что Р(А)=
.
Находим
Р(АВ):
n=
98
= 72 —
общее
число исходов (появление двух шаров).
Событию АВ
благоприятствуют
т
=
=
14
исходов. Поэтому Р(АВ)
=
.
Следовательно,
Р{В|А)
=
.
1.15. Вероятность произведения событий. Независимость событий
Из определения условной вероятности (п. 1.14) следует, что
Р(АВ) = Р(А)Р(ВА)=Р(В)-Р(АВ), (1.22)
т. е. вероятность произведения двух событий равна произведению вероятности одного из них на условную вероятность другого при условии, что первое событие произошло.
Равенство (1.22) называют правилом или теоремой (для схемы случаев оно доказывается) умножения вероятностей. Это правило обобщается на случай п событий:
P(A1 • А2... • Аn) =
Р(А1) Р(А2А1) Р(А3А1 • А2) •... Р(Аn\А1 А2… An-1). (1.23)
Так для 3-х событий A1, А2, А3 получаем
P(A1 А2 А3) = Р((A1 А2) А3) = Р(А1А2) Р(А3А1 • А2)=
Р(А1) Р(А2А1) Р(А3А1 • А2).
Пример 1.26. В коробке находится 4 белых, 3 синих и 2 черных шара. Наудачу последовательно вынимают 3 шара. Какова вероятность того, что 1-й шар будет белым, 2-й — синим, 3-й — черным?
Введем
следующие события: A1
—
первым
вытащили белый шар, А2
—
вторым
— синий, А3
— третьим — черный. Тогда интересующее
нас событие А представится в виде А= A1
А2
А3
. По правилу умножения вероятностей
Р(А)
=
Р(А1)
Р(А2А1)
Р(А3А1
•
А2).
Но Р(А1)=
;
Р(А2А1)=
,
так
как шаров осталось 8, а число благоприятных
случаев для события А2
равно 3; Р(А3А1
•
А2)
=
, так как уже два шара (белый и синий)
вытащены. Следовательно, P(A)=
Правило умножения вероятностей имеет особо простой вид, если события, образующие произведение, независимы.
Событие А называется независимым от события В, если его условная вероятность равна безусловной, т. е. если выполняется равенство
Р(А|В) = Р(А). (1.24)
Лемма 1.1 (о взаимной независимости событий). Если событие А не зависит от события В, то и событие В не зависит от события А.
Из
равенства (1.22), с учетом равенства (1.24),
следует Р(В|А)
=
т.е.
Р(ВА) = Р(В), (1.25)
а это означает, что событие В не зависит от события А.
Можно дать следующее (новое) определение независимости событий.
Два события называются независимыми, если появление одного из
них не меняет вероятность появления другого.
Для независимых событий правило умножения вероятностей (1.22) принимает вид:
Р(АВ) = Р(А)Р(В). (1.26)
т. е. вероятность произведения двух независимых событий равна произведению вероятностей этих событий.
Равенство (1.26) часто используют в качестве определения (еще одного!) независимости событий: события А и В называются независимыми, если Р(А В) = Р(А) Р(В).
Можно
показать, что если события А и В независимы,
то независимы события
и В, А и
,
и
.
На практике о независимости тех или иных событий часто судят исходя из интуитивных соображений и анализа условий опыта, считая независимыми события, «между которыми нет причинно-следственных связей».
Понятие независимости может быть распространено на случай n событий.
События А1, А2, … ,Ап называются независимыми (или независимыми в совокупности), если каждое из них не зависит от произведения любого числа остальных событий и от каждого в отдельности. В противном случае события А1, А2, … ,Ап называются зависимыми.
Для независимых событий их условные вероятности равны безусловным, и формула (1.23) упрощается
Р(А1 А2 … Аn) = Р(А1) Р(А2) •... • Р(Аn). (1.27)
Из попарной независимости событий А1, А2, … ,Аn (любые два и них независимы) не следует их независимость в совокупности (обратное верно).
Убедимся в этом, рассмотрев следующий пример.
Пример 1.27. Производится выбор (наудачу) флага из 4-х, имеющихся в наличии: красного, голубого, белого и трехцветного (красно-бел голубого). Исследовать на независимость события: К — выбранный флаг имеет красный цвет, Г — имеет голубой цвет; Б — имеет белый цвет.
Возможных
исходов выбора 4; событию К благоприятствуют
2 исхода (красный цвет имеется у двух
флагов). Поэтому Р(К)=
. Аналогично находим, что Р(Г) = Р(Б) =
. Событию КГ
— выбран флаг, имеющий 2 цвета (красный
и голубой), — благоприятствует один
исход. Поэтому, Р(К • Г) =
. И так как Р(К • Г) =
=
=
Р(К) • Р(Г) , то события К и Г независимы.
Аналогично убеждаемся в независимости:
событий К и В, Б и Г. Стало быть, события
К, Б, Г попарно независимы. А так как Р(К
Г • Б) =
≠
Р(К) • Р(Г) • Р(Б) =
,
то события К, Г и Б не являются независимыми
в совокупности.